أطلقت ساعة سلامة الذكاء الاصطناعي. إليك ما تخبرنا به عن المخاطر الوجودية

ساعة حائط على مكتب في المكتب مع تأثير ضوء شمس غروب الشمس الكبير.

(SeaPRwire) –   إذا كان الذكاء الاصطناعي غير المنضبط – أو “الذكاء الإلهي” – يلوح في الأفق، فنحن الآن في منتصف الطريق تقريبًا. كل يوم، تدق الساعة أقرب إلى سيناريو يوم القيامة المحتمل.

لهذا السبب قدمت الشهر الماضي. هدفي بسيط: أريد أن أوضح أن مخاطر الذكاء الاصطناعي العام غير المنضبط حقيقية وموجودة. يمثل قراءة الساعة الحالية – 29 دقيقة قبل منتصف الليل – مقياسًا لمدى قربنا من نقطة التحول الحرجة حيث يمكن أن يؤدي الذكاء الاصطناعي العام غير المنضبط إلى مخاطر وجودية. على الرغم من عدم حدوث ضرر كارثي حتى الآن، فإن سرعة تطوير الذكاء الاصطناعي الهائلة وتعقيدات اللوائح تعني أن جميع أصحاب المصلحة يجب أن يظلوا متيقظين ومشاركين.

هذا ليس إنذارًا؛ بل هو مستند إلى بيانات صلبة. تتبع ساعة سلامة الذكاء الاصطناعي ثلاثة عوامل أساسية: تزايد تعقيد تقنيات الذكاء الاصطناعي، وزيادة استقلاليتها، ودمجها مع الأنظمة المادية.

نحن نشهد خطوات ملحوظة عبر هذه العوامل الثلاثة. أهمها يحدث في مجال تعلم الآلة والشبكات العصبية، حيث يتفوق الذكاء الاصطناعي الآن على البشر في مجالات محددة مثل التعرف على الصور والكلام، وإتقان الألعاب المعقدة، وحتى اجتياز اختبارات مثل .

على الرغم من هذه التطورات، لا تزال معظم أنظمة الذكاء الاصطناعي اليوم تعتمد على التوجيه البشري، من قبل معهد ستانفورد للذكاء الاصطناعي الموجه نحو الإنسان. تم تصميمها لأداء مهام محددة بدقة، موجهة بواسطة البيانات والتعليمات التي نقدمها.

ومع ذلك، تظهر بعض أنظمة الذكاء الاصطناعي بالفعل علامات على الاستقلال المحدود. اتخاذ قرارات في الوقت الفعلي حول الملاحة والسلامة، بينما على منصات مثل YouTube و Amazon، اقتراح المحتوى والمنتجات دون تدخل بشري. لكننا لسنا في مرحلة الاستقلال التام – لا تزال هناك عقبات رئيسية، من ضمان السلامة والإشراف الأخلاقي إلى التعامل مع عدم القدرة على التنبؤ بأنظمة الذكاء الاصطناعي في بيئات غير منظمة.

في هذه اللحظة، لا يزال الذكاء الاصطناعي خاضعًا للسيطرة البشرية إلى حد كبير. لم يتم دمجها بعد بشكل كامل في الأنظمة الحيوية التي تحافظ على سير العالم – شبكات الطاقة، والأسواق المالية، أو الأسلحة العسكرية – بطريقة تسمح لها بالعمل بشكل مستقل. لكن لا تخطئ، نحن نتجه في ذلك الاتجاه. تُحقق تقنيات الذكاء الاصطناعي مكاسب بالفعل، لا سيما في المجال العسكري مع أنظمة مثل، وفي القطاعات المدنية، حيث يساعد الذكاء الاصطناعي على تحسين وتقديم المساعدة في .

بمجرد حصول الذكاء الاصطناعي على الوصول إلى المزيد من البنى التحتية الحيوية، تتضاعف المخاطر. تخيل أن الذكاء الاصطناعي يقرر قطع إمدادات الطاقة عن مدينة، أو التلاعب بالأسواق المالية، أو نشر أسلحة عسكرية – كل ذلك دون أي إشراف بشري، أو إشراف محدود. إنها مستقبل لا يمكننا تحمل تحقيقه.

ولكن ليس فقط سيناريوهات يوم القيامة التي يجب أن نخاف منها. الجانب المظلم لقدرات الذكاء الاصطناعي يُظهر نفسه بالفعل. تُشكل حملات المعلومات الخاطئة التي تدعمها تقنيات الذكاء الاصطناعي وتُزعزع استقرار الديمقراطيات. مثال سيئ السمعة هو انتخابات الرئاسة الأمريكية لعام 2016، حيث استخدمت وكالة البحوث على الإنترنت الروسية لنشر محتوى مثير للانقسام ومضلّل.

أصبحت أيضًا خطرًا متزايدًا. في عام 2022، شاهدنا عندما ظهر فيديو للرئيس الأوكراني ، يصوّره بشكل كاذب وهو يدعو إلى الاستسلام خلال الغزو الروسي. كان الهدف واضحًا: تقويض معنويات الشعب وإثارة الارتباك. هذه التهديدات ليست نظرية – فهي تحدث الآن، وإذا لم نتخذ إجراءً، فإنها ستصبح أكثر تعقيدًا وأصعب إيقافها.

في حين أن الذكاء الاصطناعي يتقدم بسرعة البرق، فقد تأخرت اللوائح. هذا صحيح بشكل خاص في الولايات المتحدة، حيث كانت جهود تنفيذ قوانين سلامة الذكاء الاصطناعي. كثيرا ما تُركت اللوائح للدول، مما أدى إلى مجموعة متنوعة من القوانين ذات الفعالية المتفاوتة. لا يوجد إطار عمل وطني متماسك لحكم تطوير الذكاء الاصطناعي ونشره. قرار حاكم كاليفورنيا جافين نيوسوم ب , مخافة أن يُعيق التجديد ويدفع شركات التكنولوجيا إلى أماكن أخرى، يُسلط الضوء فقط على مدى تأخر السياسة.

نحن بحاجة إلى نهج عالمي منسق لتنظيم الذكاء الاصطناعي – هيئة دولية لمراقبة تطوير الذكاء الاصطناعي العام، مثل للتكنولوجيا النووية. الذكاء الاصطناعي، مثل الطاقة النووية، هو تقنية بلا حدود. إذا طورت حتى دولة واحدة الذكاء الاصطناعي العام بدون الضمانات المناسبة، فقد تنتشر العواقب في جميع أنحاء العالم. لا يمكننا السماح للثغرات في اللوائح بتعرض الكوكب بأسره لمخاطر كارثية. هنا يصبح التعاون الدولي حاسمًا. بدون اتفاقيات عالمية تضع حدودًا واضحة وتضمن التطوير الآمن للذكاء الاصطناعي، نخاطر باتجاه الكارثة.

في الوقت نفسه، لا يمكننا تجاهل مسؤوليات الشركات مثل Google و Microsoft و OpenAI – الشركات التي تُعد في طليعة تطوير الذكاء الاصطناعي. يزداد القلق من أن سباق الهيمنة في مجال الذكاء الاصطناعي، المدفوع ب و ضغوط تجاري ، قد يُطغّي على المخاطر طويلة الأمد. أصدرت OpenAI عناوين الأخبار مؤخرًا بالتحول نحو .

كان تحذير رائد الذكاء الاصطناعي جيفري هينتون حول سباق Google و Microsoft واضحًا: “لا أعتقد أن عليهم توسيع نطاق ذلك أكثر حتى يفهموا ما إذا كان بإمكانهم السيطرة عليه”.

يقع جزء من الحل في بناء حواجز أمان في أنظمة الذكاء الاصطناعي – “مفاتيح الإغلاق”، أو الأبواب الخلفية التي تتيح للإنسان التدخل إذا بدأت نظام الذكاء الاصطناعي في السلوك غير المتوقع. شملت , أحكامًا لهذا النوع من الحماية. يجب دمج مثل هذه الآليات في الذكاء الاصطناعي من البداية، وليس إضافتها كفكرة لاحقة.

لا يمكن إنكار . نحن على شفا مشاركة كوكبنا مع آلات قد تُطابق أو حتى تتفوق على الذكاء البشري – سواء حدث ذلك في غضون عام واحد أو عشرة أعوام. لكننا لسنا عاجزين. لا زال الفرصة لإرشاد تطوير الذكاء الاصطناعي في الاتجاه الصحيح في متناول يدينا. يمكننا ضمان مستقبل يكون فيه الذكاء الاصطناعي قوة للخير.

لكن الساعة تدق.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.