كيف يحمي قانون كاليفورنيا الجديد للذكاء الاصطناعي المبلغين عن المخالفات

Governor Newsom partners with world's leading tech companies to prepare Californians for AI future

(SeaPRwire) –   كان الرؤساء التنفيذيون للشركات التي تتسابق لبناء ذكاء اصطناعي أكثر ذكاءً — Google DeepMind، OpenAI، xAI، و Anthropic — واضحين بشأن المخاطر. لقد حذر كل منهم، في بعض الأحيان، من أن الذكاء الاصطناعي القوي قد يؤدي إلى كارثة للبشرية. ومع ذلك، في صناعة تحفها الأسرار التجارية واتفاقيات عدم الإفصاح، واجه المخبرون المحتملون خيارًا صعبًا: البقاء صامتين، أو التقدم ومواجهة العواقب القانونية المحتملة.

يهدف قانون كاليفورنيا الرائد إلى جعل هذا الخيار أسهل. يقدم قانون الشفافية في الذكاء الاصطناعي الرائد (SB 53)، الذي وقعه الحاكم غافن نيوسوم في 29 سبتمبر، الحماية القانونية التي طالما طالب بها المطلعون، مما يحمي أولئك الذين يكشفون عن المخالفات من الإجراءات الانتقامية من أصحاب عملهم.

يسري القانون على أي شركة تعمل في كاليفورنيا وتستخدم كميات هائلة من قوة الحوسبة لتدريب النماذج، وهي عتبة مصممة لتنظيم المطورين الرائدين فقط مع إعفاء الشركات الأصغر. يقرن هذا القانون هذه الحماية الجديدة للمبلغين بمتطلبات الشفافية، ويلزم المطورين بنشر خطط تخفيف المخاطر ومشاركة نتائج اختبارات السلامة، ويقنن الوعود التي يقول النقاد إنها كانت. يجب على الشركات أيضًا الإبلاغ عن “حوادث السلامة الحرجة” إلى مكتب خدمات الطوارئ في كاليفورنيا (OES).

لماذا طالب المخبرون بالحماية

بينما استقال “عرّاب الذكاء الاصطناعي” جيفري هينتون من Google في عام 2023 للتحدث عن المخاطر الوجودية للتكنولوجيا، لم تظهر الدعوات لحماية المبلغين إلا في مايو 2024، عندما كشفت Vox عن استخدام OpenAI “لاتفاقيات إنهاء الخدمة المقيدة للغاية” لخنق الانتقادات. تلقى موظفو OpenAI جزءًا كبيرًا من تعويضاتهم في شكل أسهم، كما هو شائع في وادي السيليكون. ولكن عند مغادرة الشركة، للاحتفاظ بأسهمهم المكتسبة، طُلب منهم التوقيع على اتفاقية تحتوي على بنود تحظر عليهم إلى الأبد انتقاد صاحب عملهم السابق، ومنعتهم من ذكر وجود الاتفاقية. وقد ظهر هذا بعد أن نشر موظف سابق، دانيال كوكوتايلو، في منتدى عبر الإنترنت عن رفضه التوقيع – معتقدًا أنه فقد ملايين الدولارات من الأسهم المكتسبة.

في اليوم التالي، نفى الرئيس التنفيذي لـ OpenAI، سام ألتمان، علمه بهذه البنود، قائلاً: “هذا يقع على عاتقي وهي واحدة من المرات القليلة التي شعرت فيها بالحرج حقًا أثناء إدارة OpenAI؛ لم أكن أعرف أن هذا يحدث وكان يجب أن أعرف.” أكدت OpenAI لاحقًا، في رسائل أُرسلت إلى الموظفين الحاليين والسابقين، أن هذه البنود لن يتم تطبيقها بعد الآن، وأنهم سيزيلون اللغة المسيئة من جميع أوراق إنهاء الخدمة في المستقبل. لكن مصداقية نفي ألتمان تعرضت للتشكيك عندما ظهر، في 22 مايو، ما يبدو أنه توقيعه – بالإضافة إلى تواقيع كبار المديرين التنفيذيين الآخرين – على وثائق تصرح صراحة بالبنود. في يونيو 2024، في أعقاب الجدل حول اتفاقيات إنهاء الخدمة التي ألغتها OpenAI آنذاك، طالب كوكوتايلو و13 موظفًا حاليًا وسابقًا في OpenAI و Google DeepMind بحماية أقوى للمبلغين في رسالة مفتوحة.

ماذا يحمي القانون الجديد

تلبية لتوصية رئيسية في الرسالة المفتوحة، يتجاوز قانون كاليفورنيا الجديد الحماية العادية للمبلغين التي تغطي النشاط غير القانوني فقط. فهو يمنع مطوري الذكاء الاصطناعي من فرض قواعد تمنع الموظفين المسؤولين عن تقييم المخاطر من الإبلاغ عن انتهاكات القانون أو “المخاطر الكارثية” – المعرفة بأنها تعريض 50 حياة للخطر أو التسبب في أضرار بقيمة مليار دولار – إلى المدعي العام، أو الجهات التنظيمية، أو مديريهم. لا يجب أن يكون الموظفون متأكدين من وجود خطر كارثي، بل يجب أن يكون لديهم “سبب معقول” للاعتقاد بذلك، ليتم تغطيتهم بالتشريع الجديد.

حماية المخبرين في كاليفورنيا محدودة النطاق

يقول جاكوب هيلتون، باحث سابق في OpenAI وأحد الموقعين على الرسالة المفتوحة، إن الحماية الجديدة تمثل “خطوة مهمة إلى الأمام”. ومع ذلك، يقول إنه يرغب في رؤية حماية تُعتمد على المستوى الفيدرالي، مشيرًا إلى “قانون حماية المبلغين عن الذكاء الاصطناعي” الذي تم تقديمه في الكونغرس في مايو بدعم من الحزبين. يلاحظ هيلتون أن عتبة “المخاطر الكارثية” تعني أن الأضرار الأصغر ولكن الخطيرة لا تغطيها. وقال أحد الموقعين الآخرين على الرسالة المفتوحة، متحدثًا بشرط عدم الكشف عن هويته، لمجلة TIME إنه بينما كان معالجة المخاطر الكارثية أمرًا أساسيًا، “قد تكون هناك مجالات أخرى من المخاطر حيث نرغب في الحصول على حماية أخرى”.

يقول لورانس ليسيغ، أستاذ القانون في Harvard الذي قدم مشورة قانونية مجانية لكوكوتايلو وغيره من الموقعين على الرسالة، إن تجاوز مجرد الكشف عن النشاط غير القانوني هو بند حاسم. على الرغم من أن ليسيغ يشعر بالقلق بشأن عدم اليقين بشأن ما هو محمي مما يثني الموظفين عن التقدم. ويقول إنه كان يفضل خفض المعيار إلى “حسن النية”، والذي يركز على الاعتقاد الحقيقي للموظف بدلاً من قوة أدلته. وكما يقول ليسيغ، سيكون هذا “معيارًا أبسط بكثير للمهندس التقني ليعتمد عليه” بدلاً من إجباره على التصرف كمحامٍ أو محلل مخاطر. بموجب التشريع الجديد، يُخصص معيار “حسن النية” الأدنى حصريًا لقناة إبلاغ داخلية ومجهولة داخل شركات الذكاء الاصطناعي الكبيرة.

يقول ليسيغ إن المخاطر التي تحملها المبلغون في الماضي تؤكد الحاجة إلى مثل هذه الحماية. ويقول: “عندما يكون لديك أشخاص في الداخل على استعداد للتخلي عن مليوني دولار من أجل حرية التحدث البسيطة، يجب أن نكون حريصين على فهم ما يريدون قوله”.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.