وصلت الاتحاد الأوروبي إلى اتفاق بشأن أول قواعد شاملة في العالم للذكاء الاصطناعي

(SeaPRwire) –   (لندن) – توصل مفاوضو الاتحاد الأوروبي إلى اتفاق يوم الجمعة حول أول قواعد اصطناعية شاملة في العالم للذكاء الاصطناعي، مما يمهد الطريق للرقابة القانونية على تقنية الذكاء الاصطناعي التي وعدت بتحويل حياتنا اليومية وأثارت تحذيرات من مخاطر وجودية محتملة على البشرية.

تغلب مفاوضو البرلمان الأوروبي والدول الأعضاء الـ27 في الاتحاد على اختلافات كبيرة حول نقاط مثيرة للجدل بما في ذلك الذكاء الاصطناعي التوليدي واستخدام الشرطة لمراقبة الوجوه باستخدام التعرف على الوجوه للتوقيع على اتفاق سياسي مبدئي لقانون الذكاء الاصطناعي.

“توصلنا لاتفاق!” تغرد المفوض الأوروبي تييري بريتون قبل منتصف الليل. “يصبح الاتحاد الأوروبي أول قارة تضع قواعد واضحة لاستخدام الذكاء الاصطناعي”.

جاء النتيجة بعد محادثات مغلقة ماراثونية هذا الأسبوع، حيث استمر الجلسة الأولى 22 ساعة قبل انطلاق جولة ثانية يوم الجمعة بالصباح.

كان المسؤولون تحت ضغط لتحقيق نصر سياسي للتشريع الرائد. ومع ذلك، استقبلتهم مجموعات المجتمع المدني ببرودة حيث ينتظرون التفاصيل التقنية التي ستحتاج إلى تنقيح في الأسابيع القادمة. وقالوا إن الاتفاق لم يذهب بعيدا بما فيه الكفاية في حماية الناس من الضرر الناجم عن أنظمة الذكاء الاصطناعي.

“يمثل اتفاق اليوم بداية العمل التقني الهام والضروري على التفاصيل الحاسمة المفقودة لقانون الذكاء الاصطناعي”، قال دانيال فريدلاندر، رئيس المكتب الأوروبي لرابطة صناعات الاتصالات وتكنولوجيا المعلومات، وهي مجموعة ضغط لصناعة التكنولوجيا.

اتخذ الاتحاد الأوروبي مقدمة مبكرة في السباق العالمي لوضع ضوابط للذكاء الاصطناعي عندما كشف عن مسودة أولى لكتاب القواعد في عام 2021. إلا أن انفجار الذكاء الاصطناعي التوليدي حديثا دفع مسؤولي الاتحاد الأوروبي للعمل على تحديث اقتراح مزمع أن يكون بمثابة دليل للعالم.

سيحتاج البرلمان الأوروبي لاحقا إلى التصويت على القانون في أوائل العام المقبل، لكن مع انتهاء الاتفاق سيكون ذلك مجرد إجراء شكلي، كما قال براندو بينيفي، عضو برلمان إيطالي يقود جهود الجسم التفاوضية، لوكالة الأنباء الأسوشيتد برس لاحقا من الليل. “هو جيد جدا”، قال في رسالة نصية بعد سؤاله إذا كان يشمل كل ما أراده. “على الطبع اضطررنا لتقبل بعض التنازلات لكن بشكل عام جيد جدا”.

سيبدأ القانون بالعمل فعليا في أقرب وقت عام 2025، ويهدد بغرامات مالية قاسية تصل إلى 35 مليون يورو أو 7٪ من إيرادات الشركة العالمية في حالة مخالفاته.

نظمات الذكاء الاصطناعي التوليدي مثل ChatGPT لشركة OpenAI انفجرت في وعي العالم، مبهرة المستخدمين بقدرتها على إنتاج نصوص وصور وأغاني تشبه البشر لكنها أثارت مخاوف بشأن المخاطر التي قد تفرضها هذه التقنية التي تتطور بسرعة على فرص العمل والخصوصية وحماية حقوق النشر وحتى الحياة البشرية نفسها.

الآن، بدأت الولايات المتحدة والمملكة المتحدة والصين وتحالفات عالمية مثل مجموعة السبع الديمقراطيات الكبرى بوضع مقترحاتها الخاصة لتنظيم الذكاء الاصطناعي، على الرغم من أنها ما زالت تلحق بالاتحاد الأوروبي.

القواعد القوية والشاملة من الاتحاد الأوروبي “يمكن أن تضع مثالا قويا للعديد من الحكومات التي تدرس التنظيم”، قالت أنو برادفورد، أستاذة في كلية كولومبيا للقانون وخبيرة في القانون الأوروبي والتنظيم الرقمي. قد لا تنسخ دول أخرى كل بند ولكن ستحاكي العديد من جوانبه”.

ستمتد شركات الذكاء الاصطناعي الخاضعة لقواعد الاتحاد الأوروبي بعض هذه الالتزامات خارج القارة أيضا، حسب قولها. “بعد كل شيء، ليس من الكفاءة إعادة تدريب نماذج منفصلة لأسواق مختلفة”.

كان قانون الذكاء الاصطناعي مصمما أصلا للتخفيف من مخاطر وظائف الذكاء الاصطناعي المحددة بناء على مستوى المخاطر، من منخفض إلى غير مقبول. لكن المشرعين دفعوا لتوسيعه ليشمل نماذج الأساس، الأنظمة المتقدمة التي تكمن وراء خدمات الذكاء الاصطناعي العام مثل ChatGPT وبوت المحادثة Bard لشركة جوجل.

بدا نماذج الأساس واحدا من أكبر نقاط الخلاف بالنسبة لأوروبا. ومع ذلك، تمكن المفاوضون من التوصل إلى تسوية مبدئية في وقت مبكر من المحادثات، على الرغم من المعارضة بقيادة فرنسا التي دعت بدلا من ذلك إلى التنظيم الذاتي لمساعدة شركات الذكاء الاصطناعي الأوروبية الناشئة على المنافسة مع العمالقة الأمريكيين الكبار بما في ذلك OpenAI التابع لشركة مايكروسوفت.

تعرف أيضا باسم نماذج اللغة الكبيرة، تمنح هذه الأنظمة أنظمة الذكاء الاصطناعي التوليدية القدرة على إنشاء شيء جديد، على عكس الذكاء الاصطناعي التقليدي الذي يعالج البيانات ويكمل المهام باستخدام قواعد محددة مسبقا.

ستكون الشركات التي تبني نماذج الأساس مطالبة بوضع وثائق تقنية والالتزام بقوانين حقوق النشر الأوروبية وتفصيل المحتوى المستخدم للتدريب. ستواجه نماذج الأساس الأكثر تقدما التي تشكل “مخاطر نظامية” مزيدا من الفحص، بما في ذلك تقييم والتخفيف من تلك المخاطر وإبلاغ الحوادث الخطيرة ووضع تدابير أمنية للأنظمة وإبلاغ كفاءتها الطاقية.

حذر الباحثون من أن نماذج الأساس القوية التي تبنيها تجمعات تكنولوجية قليلة قد تستخدم لتعزيز المعلومات المضللة عبر الإنترنت والتلاعب أو الهجمات السيبرانية أو خلق أسلحة بيولوجية.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

كما حذرت مجموعات حقوق الإنسان أن عدم شفافية البيانات المستخدمة لتدريب النماذج تشكل مخاطر على الحياة اليومية لأنها تعمل