صدى كندا- كشف تقرير دولي رئيسي حول سلامة الذكاء الاصطناعي أن الخبراء لا يمكنهم الاتفاق على المخاطر التي تشكلها التكنولوجيا – ومن غير الواضح ما إذا كانت الذكاء الاصطناعي ستساعدنا أم ستضر بنا.
وخلص التقرير، الذي يرأسه الكندي يوشوا بينجيو، إلى أن “المسار المستقبلي الذكاء الاصطناعي للأغراض العامة غير مؤكد بشكل ملحوظ”.
وتم إعداد التقرير في قمة السلامة الذكاء الاصطناعي العام الماضي التي استضافتها المملكة المتحدة ، وهو أول اجتماع عالمي من نوعه حول الذكاء الاصطناعي.
وطلبت المملكة المتحدة من بنجيو، الملقب بـ”الأب الروحي” للذكاء الاصطناعي والذي يشغل منصب المدير العلمي في ميلا، معهد كيبيك الذكاء الاصطناعي، رئاسة التقرير، وتم إصداره قبل قمة عالمية أخرى يوم الذكاء الاصطناعي، ستعقد في سيول، كوريا الجنوبية، الأسبوع المقبل.
وكتب بنجيو في التقرير، “نحن نعلم أن الذكاء الاصطناعي المتقدمة تتطور بسرعة كبيرة، وأن هناك قدرا كبيرا من عدم اليقين بشأن كيفية تأثير أنظمة الذكاء الاصطناعي المتقدمة هذه على كيفية عيشنا وعملنا في المستقبل”.
وأكدت حكومة المملكة المتحدة في بيان صحفي يوم الجمعة أن التقرير هو “أول تقرير علمي دولي مستقل على الإطلاق” حول سلامة الذكاء الاصطناعي، وأنه “سيلعب دورا كبيرا” في إثراء المناقشات في كوريا الجنوبية الأسبوع المقبل.
وساهم في التقرير فريق من 75 خبيرا، بما في ذلك فريق رشحته 30 دولة والاتحاد الأوروبي والأمم المتحدة، التقرير الذي صدر يوم الجمعة هو تقرير مؤقت، ومن المتوقع إصدار نسخة نهائية بحلول نهاية العام.
وركز على أنظمة الذكاء الاصطناعي للأغراض العامة، مثل ChatGPT من OpenAI، والتي يمكنها إنشاء نصوص وصور ومقاطع فيديو بناء على المطالبات.
وأوضح التقرير أن الخبراء “ما زالوا يختلفون حول العديد من الأسئلة، الثانوية والرئيسية، حول قدرات الذكاء الاصطناعي للأغراض العامة والمخاطر وتخفيف المخاطر”.
وأحد مجالات النقاش هو احتمال “مخاطر مثل تأثيرات سوق العمل على نطاق واسع ، والقرصنة التي تدعم الذكاء الاصطناعي أو الهجمات البيولوجية، وفقدان المجتمع السيطرة على الذكاء الاصطناعي للأغراض العامة”.
وحدد التقرير عددا من المخاطر، بما في ذلك الضرر الذي يمكن أن تسببه الذكاء الاصطناعي من خلال المحتوى المزيف والمعلومات المضللة والاحتيال، فضلا عن الهجمات الإلكترونية.
وأشار التقرير إلى المخاطر التي يمكن أن يسببها التحيز في الذكاء الاصطناعي، لا سيما في “المجالات عالية المخاطر مثل الرعاية الصحية والتوظيف والإقراض المالي”.
وأحد السيناريوهات المحتملة هو أن البشر سيفقدون السيطرة على الذكاء الاصطناعي، ولن يكونوا قادرين على التحكم في التكنولوجيا حتى لو كانت تسبب ضررا.
وأضاف التقرير أن هناك إجماعا على أن التكنولوجيا الحالية للأغراض العامة لا تشكل هذا الخطر، لكن بعض الخبراء يعتقدون أن العمل المستمر لتطوير الذكاء الاصطناعي مستقلة، والتي يمكن أن “تعمل وتخطط وتسعى لتحقيق الأهداف”، يمكن أن يؤدي إلى مثل هذه النتيجة.
وأختتم التقرير: “يختلف الخبراء حول مدى معقولية سيناريوهات فقدان السيطرة، ومتى قد تحدث ومدى صعوبة التخفيف منها”.