عندما يتعلق الأمر بالذكاء الاصطناعي، ما لا نعرفه قد يؤذينا

ذكاء اصطناعي معيب

(SeaPRwire) –   في السنوات القليلة الماضية، كان الذكاء الاصطناعي حديث الساعة البارز. يكشف كل نموذج ذكاء اصطناعي جديد عن ابتكارات مذهلة تنافس الإصدار الذي صدر قبل أسابيع قليلة فقط. ويقدم الخبراء والمطورون والرؤساء التنفيذيون لشركات الذكاء الاصطناعي ادعاءات جريئة حول المسارات المستقبلية، من الأعمال الشاقة و عمر الإنسان إلى المحتمل على البشرية.

إذا كان الجميع يتحدث عن الذكاء الاصطناعي، فذلك يعود جزئياً إلى أن نشر تلك الابتكارات قد ولّد إيرادات متزايدة بشكل كبير للشركات التي تطور هذه النماذج. ولكن مع ازدياد سرعة الذكاء الاصطناعي وقدرته وتعقيده، يمكن أن تنتقل هذه المحادثة العامة بسرعة خلف الأبواب المغلقة. تعمل شركات الذكاء الاصطناعي بشكل متزايد على نشر نماذج الذكاء الاصطناعي داخل مؤسساتها الخاصة، ومن المرجح أن تجد قريباً لحجز نماذجها المستقبلية الأكثر قوة للاستخدام الداخلي. لكن هذه القرارات التي تبدو غير ضارة قد تشكل تهديداً خطيراً للمجتمع ككل، كما سيُناقش أدناه.

أعلنت معظم شركات الذكاء الاصطناعي الرائدة علناً عن نيتها تطوير نماذج ذكاء اصطناعي تتمتع بكفاءة البشر في جميع المهام المعرفية، مما قد يولد تريليونات الدولارات من القيمة الاقتصادية. ومع الاعتقاد الشائع حالياً بوجود نحو الذكاء الاصطناعي العام (AGI)، قد تؤدي الميزة الاستراتيجية المحتملة للنماذج المتقدمة للغاية قريباً إلى قيام الشركات بالاستفادة من نماذجها بسرية وداخلياً لزيادة التقدم التقني — ولكن مع تقديم إشارة ضئيلة عن التقدم للمنافسين والعالم الخارجي الأوسع. 

تتصرف أنظمة الذكاء الاصطناعي الحالية بالفعل في كثير من الأحيان بطرق غير متوقعة وغير مقصودة وغير مرغوبة في سياقات محاكاة تجريبية، على سبيل المثال، تهديد المستخدمين،   أو . ومع ذلك، إذا بدأ المطورون الرائدون في إخفاء أوراقهم، فلن يكون لدى المجتمع نافذة، ولا حتى نافذة ضيقة، للتعرف علناً وتقييم الإيجابيات والسلبيات، وملفات المخاطر والأمان، ومسار هذه التكنولوجيا الأساسية. بمجرد نشر أنظمة الذكاء الاصطناعي المستقبلية المتقدمة واستخدامها، وربما حصرياً، خلف الأبواب المغلقة، يمكن أن تظهر وتتطور أخطار غير مرئية على المجتمع دون رقابة أو إشارات تحذير — وهذا تهديد يمكننا ويجب علينا تجنبه.

تستفيد المختبرات الرائدة بالفعل بشكل متزايد من أنظمة الذكاء الاصطناعي لتسريع عمليات البحث والتطوير (R&D) الخاصة بها، من خلال تصميم خوارزميات جديدة، واقتراح بنيات جديدة تماماً أو تحسين الشفرة. Google، على سبيل المثال، أن 50% من شفرتها مكتوبة الآن بواسطة الذكاء الاصطناعي. كما أبرز في ، يمكن أن تُستخدم أنظمة الذكاء الاصطناعي المتقدمة في النهاية لتحسين خلفائها بشكل متكرر، مما قد يخلق “” قوياً من النماذج ذات القدرات المتزايدة. ستكون هذه النتيجة أخباراً رائعة لشركات الذكاء الاصطناعي التي تهدف إلى الوصول بسرعة إلى الذكاء الاصطناعي العام، أو حتى ، قبل المنافسين — ولكن فقط إذا استغلت ميزتها الاستراتيجية بعيداً عن أعين المتطفلين.

للوهلة الأولى، قد يبدو كل هذا غير ضار: أي تهديد يمكن أن يشكله نظام ذكاء اصطناعي غير مطروح؟ 

المشكلة ذات شقين: أولاً، مع ازدياد فائدة أنظمة الذكاء الاصطناعي المتقدمة داخلياً لبناء ذكاء اصطناعي أفضل، قد يكون هناك حافز تنافسي واقتصادي قوي، أكثر مما هو عليه اليوم، لإعطاء الأولوية للسرعة والميزة التنافسية على الحذر. تحمل ديناميكية السباق هذه مخاطر، خاصة إذا بدأت أنظمة الذكاء الاصطناعي المتقدمة بشكل متزايد في الاستخدام من قبل موظفي الشركات ونشرها للاستخدام في المجالات الحساسة أمنياً مثل البحث والتطوير في الذكاء الاصطناعي، وربما بشكل مستقل لتقليل الاحتكاك، مما يؤدي إلى تضمين نقاط فشل محتملة قبل أن يتمكن أي شخص من فهم سلوك أنظمة الذكاء الاصطناعي بشكل كامل. 

ثانياً، تركز التقييمات والتدخلات الحالية بشكل أساسي على أنظمة الذكاء الاصطناعي المتاحة للجمهور. أما بالنسبة لأنظمة الذكاء الاصطناعي التي تُنشر داخلياً، فإن معلومات قليلة جداً، إن وجدت، متاحة حول من لديه حق الوصول المتميز إليها أو ما تُستخدم لأجله. وبشكل أكثر دقة، هناك معلومات شحيحة متاحة حول قدراتها، وما إذا كانت تتصرف بطرق غير مرغوبة؛ وما إذا كانت تخضع لسيطرة مناسبة مع آليات رقابة وضمانات؛ وما إذا كان يمكن إساءة استخدامها من قبل أولئك الذين لديهم حق الوصول إليها أو معلومات حول ملفات المخاطر الشاملة الخاصة بها. كما لا توجد متطلبات كافية وواقعية ومفصلة لضمان اختبار هذه الأنظمة بدقة وعدم تشكيلها تهديداً متتالياً للمجتمع قبل وضعها قيد الاستخدام. 

إذا لم نُلزم شركات التكنولوجيا بتقديم معلومات مفصلة بما فيه الكفاية حول كيفية اختبارها والتحكم فيها واستخدامها داخلياً لنماذج الذكاء الاصطناعي الجديدة، فلا يمكن للحكومات الاستعداد لأنظمة الذكاء الاصطناعي التي يمكن أن تمتلك في النهاية قدرات على مستوى الدول. في غضون ذلك، يمكن أن تتسرب التهديدات التي تتطور خلف الأبواب المغلقة إلى المجتمع دون سابق إنذار أو قدرة على التدخل. ومن المؤكد أننا، حتى اليوم، لا يمكننا الوثوق بأنظمة الذكاء الاصطناعي الحالية بأن تتصرف بشكل موثوق كما هو مقصود سواء كانت منتشرة خارجياً أو داخلياً. ومع ذلك، لا يزال لدينا وقت للتصرف.

هناك إجراءات مباشرة يمكن اتخاذها اليوم. يجب توسيع نطاق سياسات السلامة الطوعية للذكاء الاصطناعي الرائد التي تتبعها شركات الذكاء الاصطناعي لتشمل النشر والاستخدام الداخلي عالي المخاطر، مثل تسريع البحث والتطوير في الذكاء الاصطناعي. وكجزء من هذا، يجب معاملة النشر الداخلي بنفس العناية التي يتم بها النشر الخارجي، ويجب تشجيع التقييمات والتحليلات الصارمة لتحديد القدرات الخطيرة، ووضع ملفات تعريف واضحة للمخاطر، وآليات التحكم أو الحماية المطلوبة قبل الاستخدام .

يجب أن تتمتع الوكالات الحكومية المسؤولة عن التأهب الوطني برؤية استباقية للنشر والاستخدام الداخلي لأنظمة الذكاء الاصطناعي المتقدمة للغاية وتلقي جميع المعلومات الضرورية المتعلقة بالأمن القومي. يمكن أن يشمل ذلك، على سبيل المثال، معلومات حول من لديه حق الوصول إلى أنظمة الذكاء الاصطناعي هذه وتحت أي ظروف، وما تُستخدم لأجله هذه الأنظمة، وما هي الرقابة المطبقة عليها، وماذا يمكن أن يحدث إذا فشلت هذه الرقابة، وذلك لضمان الموازنة بين المصالح الاقتصادية ومصالح الملكية الفكرية مع مصالح الأمن القومي المشروعة.

يجب على شركات الذكاء الاصطناعي والحكومات أن تتولى القيادة بشكل تعاوني في اعتماد هذه الممارسات الفضلى المباشرة لضمان الابتكار الجدير بالثقة وحماية الجمهور.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.