في رسالة مفتوحة جديدة، يدعو الخبراء إلى اتخاذ إجراءات سياسية لتجنب المخاطر القصوى من الذكاء الاصطناعي

Yoshua Bengio, founder and scientific director of Mila at the Quebec AI Institute, during the All In event in Montreal, Quebec, Canada, on Sept. 27, 2023.

يوم الثلاثاء، نشر 24 خبيرًا في مجال الذكاء الاصطناعي، بمن فيهم حائزو جائزة تورنغ “جيفري هينتون” و”يوشوا بينجيو”، رسالة مفتوحة تدعو الحكومات إلى اتخاذ إجراءات لإدارة مخاطر الذكاء الاصطناعي. ركزت الرسالة بشكل خاص على المخاطر القصوى التي يمكن أن تنشأ عن أكثر الأنظمة تقدمًا، مثل تمكين الأنشطة الإجرامية أو الإرهابية على نطاق واسع.

تتضمن الرسالة المفتوحة عددًا من التوصيات السياسية الملموسة، مثل ضمان تخصيص شركات التكنولوجيا الكبرى والممولين العامين ما لا يقل عن ثلث ميزانية بحوثهم وتطوير الذكاء الاصطناعي لمشاريع تعزيز استخدام الذكاء الاصطناعي بطريقة آمنة وأخلاقية. كما يدعون إلى إنشاء معايير وطنية ودولية.

يقول بينجيو، المدير العلمي في معهد مونتريال للخوارزميات، إن الرسالة المفتوحة تهدف إلى مساعدة صانعي السياسات ووسائل الإعلام والجمهور العام على “فهم المخاطر وبعض الإجراءات التي يجب اتخاذها لجعل الأنظمة تفعل ما نريد”.

التوصيات لا تضيف جديدًا. بدلاً من ذلك، يضع الموقعون على الرسالة أسماءهم وراء الرأي السائد بين باحثي سياسات الذكاء الاصطناعي المهتمين بالمخاطر القصوى (تتطابق تمامًا مع أكثر السياسات شعبية التي تم تحديدها في استطلاع أيار/مايو للخبراء).

“لقد أردنا تقديم ما نعتقد أنه تفكير واضح حول سلامة الذكاء الاصطناعي، بشكل معقول خال من تأثير المصالح المتضاربة”، قال ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، ومشارك في تأليف الرسالة، لمجلة “تايم” في بريد إلكتروني.

تختلف هذه البيانات هذا الأسبوع عن الرسائل المفتوحة السابقة التي قادها خبراء، حسب راسل، لأن “الحكومات فهمت أن هناك مخاطر حقيقية. وهم يسألون مجتمع الذكاء الاصطناعي، ‘ماذا يجب فعله؟’ البيان هو الإجابة على هذا السؤال”.

من بين المشاركين الآخرين في الكتابة المؤرخ والفيلسوف “يوفال نواح هاراري”، وحائز جائزة ماك آرثر “جينيوس” وأستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، دون سونغ، إلى جانب عدد من الأكاديميين من بلدان ومجالات مختلفة.

الرسالة المفتوحة هي البيان الثالث البارز الذي وقعه خبراء الذكاء الاصطناعي هذا العام، في محاولة متزايدة لإثارة الإنذار بالمخاطر المحتملة لتطوير الذكاء الاصطناعي دون تنظيم.

الباحثون في مجال الذكاء الاصطناعي يحاولون منذ فترة طويلة لفت الانتباه إلى المخاطر المحتملة التي يمكن أن تنشأ عن التكنولوجيا التي ساعدوا في تطويرها. في عام 2016، وقع هينتون وبينجيو وراسل رسالة منظمة من قبل معهد المستقبل للحياة، منظمة غير ربحية تهدف إلى الحد من المخاطر العالمية الكارثية والقائمة بحد ذاتها، تدعو إلى “حظر الأسلحة الذاتية التي تتجاوز السيطرة البشرية المعنية”.

تاريخيًا، كان العلماء يصدرون الإنذارات المبكرة ومناصرين للقضايا المتعلقة بأبحاثهم. ينذر علماء المناخ منذ الثمانينيات من القرن الماضي بمشكلة الاحتباس الحراري العالمي. وبعد قيادته تطوير قنبلة ذرية، أصبح روبرت أوبنهايمر مناصرًا لاتخاذ تدابير دولية للسيطرة على الأسلحة النووية، بما في ذلك حتى إلغائها تمامًا.

يقول بينجيو إن مناصرته لسياسات الذكاء الاصطناعي قد تطورت مع “فهمي للمشكلة والسياسات حولها التي تحسنت كثيرًا”.

إحدى السياسات الموصى بها في الرسالة المفتوحة الجديدة هي مطالبة الشركات بالحصول على ترخيص قبل تطوير “نماذج مستقبلية استثنائية القدرة”. ومع ذلك، حذر بعض مطوري الذكاء الاصطناعي والمعلقين من أن التراخيص قد تميز الشركات الكبرى القادرة على تحمل العبء التنظيمي المطلوب للحصول على ترخيص.

يرد بينجيو على هذا الادعاء بأنه “حجة كاملة الخطأ”، مشيرًا إلى أن عبء التراخيص سيقع فقط على الشركات التي تطور أكبر النماذج وأكثر قدرة في مجال الذكاء الاصطناعي. بدلاً من ذلك، يجادل بينجيو بأن المخاطر الحقيقية للاستيلاء التنظيمي يجب تجنبها هي إذا سمح للشركات بالتأثير على التشريعات بحيث لا تكون كافية بما فيه الكفاية.

يقول راسل إن الادعاء بأن الشركات الكبرى في مجال الذكاء الاصطناعي تدفع بشكل متعمد نحو التنظيم لإغلاق الأبواب أمام الشركات الأصغر “هراء مطلق”، مشيرًا إلى أنه على الرغم من وجود المزيد من اللوائح على محلات الساندويتش مقارنة بشركات الذكاء الاصطناعي، إلا أن عشرات الآلاف من المقاهي والمطاعم الجديدة تفتح أبوابها كل عام.

تأتي هذه الرسالة في لحظة حاسمة، حيث تكون قواعد الذكاء الاصطناعي في البلدان الرائدة في مجال التطوير في مراحل نضج متفاوتة. الصين هي الأبعد في هذا الصدد – دخلت قواعدها الخاصة بـ”الذكاء الاصطناعي للمحادثات” الصادرة في آب/أغسطس حيز التنفيذ.

البلدان الغربية أبعد في هذا المجال. ما زال قانون الاتحاد الأوروبي للذكاء الاصطناعي قيد التقدم من خلال العملية التنظيمية في الاتحاد الأوروبي. في الولايات المتحدة، حصلت البيت الأبيض على ت