يجب تنظيم الذكاء الاصطناعي مثل الطاقة النووية

Uranium Mine Clean-Up Near National Park

لقد تم تصريح باستمرار من قبل الباحثين والشخصيات البارزة في مجال الذكاء الاصطناعي بمقارنات تؤكد أن مخاطر الذكاء الاصطناعي تعادل مخاطر الانقراض والسلامة التي تمثلها ظهور العصر النووي. من التصريحات التي تنص على أن الذكاء الاصطناعي يجب أن تخضع لـ “التنظيم مثل الطاقة النووية”، إلى إعلانات توازي مخاطره مع مخاطر “الانقراض البشري” أو “الحرب النووية”. كانت المقارنات المرسومة بين الذكاء الاصطناعي والطاقة النووية متسقة.

حتى سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي”، أشار إلى الممارسة النووية المعروفة “للترخيص”، التي اعتبرها البعض “مناهضة للمنافسة”. كما دعا إلى إنشاء وكالة فيدرالية يمكنها منح تراخيص لإنشاء نماذج الذكاء الاصطناعي “أعلى من عتبة معينة من القدرات”. وهذا مماثل لكيفية اشتراط ترخيص المشغلين للمنشآت النووية من قبل هيئة تنظيم نووية، مثل هيئة التنظيم النووي الأمريكية.

ينبغي أن تنبه المراجع المستمرة للسلامة النووية بالضرورة إلى ضرورة تطبيق تنظيمات وتقييمات مستوى الطاقة النووية على أنظمة الذكاء الاصطناعي نفسها المتناقشة. ومع ذلك، لا يوجد سوى مقاومة لذكر قانون الاتحاد الأوروبي للذكاء الاصطناعي، وهو وثيقة مخففة مقارنة بتعقيدات ودقة اللوائح المطلوبة لأنظمة الطاقة النووية.

لقد لوحظ أن تحديد المخاطر الحالية لأنظمة الذكاء الاصطناعي، مثل التمييز الخوارزمي وتخفيض تكلفة المعلومات المضللة أو هجمات الإنترنت، فقط يعني أننا غير مستعدين لتتبع وفهم أي آثار متراكمة والسيطرة على مخاطر الذكاء الاصطناعي. وإذا كنا لا نملك الإمكانات الفنية والحكومية للسيطرة أو قياس آليات الذكاء الاصطناعي التي تنتج هذه المخاطر، فسوف نكون مخطئين في الاعتقاد بأن لدينا الأساس الفني لحل المخاطر الأكبر حجمًا التي قد يمكن أن يمهدها الذكاء الاصطناعي نظريًا.

ثم لماذا أظهرت مختبرات الذكاء الاصطناعي مقاومة لاتباع دقة مستوى الطاقة النووية المطلوبة للحفاظ على سلامة ما قبل “مستوى الانقراض” مثل تقنية “ChatGPT”؟ في مقال نشرته مؤسسو شركة “أوبن إيه آي”، لاحظوا أن “من المهم أن تركز مثل هذه الوكالة على الحد من المخاطر القاتلة وليس القضايا التي يجب تركها للبلدان الفردية”. وهذا البيان يحاول فصل المخاطر الحالية التي تسببها أنظمة الذكاء الاصطناعي عن المخاطر الافتراضية القاتلة، بالإضافة إلى عدم الاعتراف بالمبدأ الهندسي الأساسي بأن المخاطر تتراكم.

إذا كانت مختبرات الذكاء الاصطناعي تستشهد باستمرار بمخاطر مبالغ فيها من خلال المقارنات بالمخاطر النووية، فعليها أن تكون على استعداد لاستكمال التشابه. من حيث المبدأ، إذا كانوا قد استكشفوا آليات السلامة المتاحة بالفعل لمكونات الطاقة النووية، لوجدوا أنفسهم مضطرين لعدم العثور على لغة محرضة تدعم استخدام مصطلحات مثل “الانقراض” و “المخاطر القاتلة”. فبالفعل، تستند الكوارث النووية إلى القدرات العلمية والسياسية الجيولوجية المدروسة نظريًا وبدقة.

هندسة السلامة، التخصص الذي يضمن سلامة أنظمة الطاقة النووية، تقوم على أساس أن فشل الأنظمة أو سوء السلوك، بغض النظر عن صغر حجمها، يمكن أن تتراكم وتؤدي إلى أحداث كارثية. فعلى سبيل المثال، أدى خطأ برمجي صغير يعرف باسم “سباق الظروف” إلى انقطاع الكهرباء في شمال شرق الولايات المتحدة عام 2003.

عجزنا عن منع الأضرار الحالية للذكاء الاصطناعي، مثل التمييز الخوارزمي وخفض تكلفة المعلومات المضللة أو هجمات الإنترنت، يعني فقط أننا غير مستعدين لتتبع وفهم أي آثار متراكمة والسيطرة على مخاطر الذكاء الاصطناعي. وإذا كنا لا نملك الإمكانات الفنية والحكومية للسيطرة أو قياس آليات الذكاء الاصطناعي التي تنتج هذه المخاطر، فسوف نكون مخطئين في الاعتقاد بأن لدينا الأساس الفني لحل المخاطر الأكبر حجمًا التي قد يمكن أن يمهدها الذكاء الاصطناعي نظريًا.

من خلال مقال نشر على موقعهم على الإنترنت، لاحظ مؤسسو شركة “أوبن إيه آي” أن “من المهم أن تركز مثل هذه الوكالة على الحد من المخاطر القاتلة وليس القضايا التي يجب تركها للبلدان الفردية”. هذا البيان يحاول ليس فقط فصل المخاطر الحالية التي تسببها أنظمة الذكاء الاصطناعي عن المخاطر الافتراضية القاتلة، ولكنه أيضًا يفشل في الاعتراف بالمبدأ الهندسي الأساسي بأن المخاطر تتراكم. إذا كانت الأنظمة الحالية للذكاء الاصطناعي هي بالفعل أساس لذكاء اصطناعي عام مفترض، كما يشير غالبًا، فعندها كما هي الحال يجب تنظيمها لمعالجة المخاطر الحالية استعدادًا لسلوك إضافي قد ينشأ، سواء كان ذكاء اصطناعي عام أو غير ذلك.

يظهر نمط أن استشهاد مختبرات الذكاء الاصطناعي باستمرار بالتشابه مع المخاطر النووية يخدم غالبًا لإثارة روايات محددة، سواء كانت تراخيص حصرية أو محاولة لتحويل محادثة التنظيم إلى التركيز على التهديدات المستقبلية الافتراضية بدلاً من ذلك. كلاهما قد يكون له آثار ضارة. فبالنسبة للأول، لا تمتلك أنظمة الذكاء الاصطناعي أي مكونات برمجية فريدة تبرر نظام ترخيص شامل قد يعوق بشدة استخدام البرمجيات والأجهزة ككل. بالفعل، ستؤدي أي تنفيذ