OpenAI أزالت تدابير الحماية قبل انتحار مراهق، تزعم دعوى قضائية معدلة

(SeaPRwire) –   زعمَت دعوى قضائية معدلة رفعتها العائلة أمام المحكمة العليا لمقاطعة سان فرانسيسكو يوم الأربعاء، أن OpenAI خففت من الإجراءات الوقائية التي كانت ستمنع ChatGPT من الانخراط في محادثات حول إيذاء النفس في الأشهر التي سبقت انتحار آدم رين.

يغير التعديل نظرية القضية من عدم اكتراث متهور إلى سوء سلوك متعمد، وفقًا لمحامي العائلة، مما قد يزيد من التعويضات الممنوحة للعائلة. سيتعين على محامي عائلة رين إثبات أن OpenAI كانت على دراية بالمخاطر التي يمثلها ChatGPT وتجاهلتها. وقد طلبت العائلة محاكمة أمام هيئة محلفين.

في مقابلة مع TIME، يقول جاي إدلسون، أحد محامي عائلة رين، إن OpenAI خففت الإجراءات الوقائية بـ “قرار متعمد” لـ “إعطاء الأولوية للتفاعل”.

في البداية، كانت إرشادات تدريب ChatGPT توجه برنامج الدردشة الآلي لرفض المحادثات حول إيذاء النفس بشكل قاطع: “قدم رفضًا مثل ‘لا أستطيع الإجابة على ذلك’،” كما جاء في من “إرشادات السلوك” لنموذج الذكاء الاصطناعي اعتبارًا من يوليو 2022. تم تعديل هذه السياسة قبيل إطلاق GPT-4o في مايو 2024: “يجب ألا يغير المساعد المحادثة أو ينهيها،” كما جاء في مع إضافة أن “المساعد يجب ألا يشجع أو يمكّن إيذاء النفس.”

يقول إدلسون: “هناك قاعدة متناقضة تقول استمر في المحادثة، ولكن لا تمكن وتشجع إيذاء النفس”. “إذا أعطيت جهاز كمبيوتر قواعد متناقضة، ستكون هناك مشاكل.”

تعكس هذه التغييرات ممارسات سلامة متساهلة من قبل شركة الذكاء الاصطناعي في سباقها لإطلاق نموذجها للذكاء الاصطناعي قبل المنافسين، وفقًا لمحامي العائلة. يقول إدلسون: “لقد أجروا أسبوعًا من الاختبارات بدلاً من شهور من الاختبارات، والسبب في ذلك هو أنهم أرادوا التغلب على Google Gemini”. ويضيف: “إنهم لا يجرون اختبارات مناسبة، وفي الوقت نفسه، يقومون بتدهور بروتوكولات السلامة الخاصة بهم”.

لم تستجب OpenAI لطلب التعليق على هذه القصة.

رفع ماثيو وماريا رين في البداية دعوى قضائية ضد OpenAI في أغسطس، زاعمين أن ChatGPT شجع ابنهما البالغ من العمر 16 عامًا على الانتحار. عندما أخبر آدم رين برنامج الدردشة الآلي أنه يريد ترك حبل مشنقة في غرفته حتى تجده عائلته في الشهر الذي سبق وفاته، رد ChatGPT: “من فضلك لا تترك حبل المشنقة في الخارج… دعنا نجعل هذا المكان أول مكان يراك فيه شخص ما بالفعل.”

تعد دعوى عائلة رين واحدة من ثلاث دعاوى على الأقل ضد شركات الذكاء الاصطناعي المتهمة بعدم توفير حماية كافية للقصر في استخدامهم لروبوتات الدردشة المدعومة بالذكاء الاصطناعي. في سبتمبر ، تحدث الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عن الانتحار من قبل مستخدمي ChatGPT، وصور ذلك على أنه فشل ChatGPT في إنقاذ حياة المستخدمين، بدلاً من كونه مسؤولاً عن وفياتهم.

وفقًا لتقرير من Financial Times يوم الأربعاء، طلبت OpenAI أيضًا القائمة الكاملة للحاضرين في حفل تأبين آدم رين. وقد سبق أن اتُهمت OpenAI بتقديم طلبات واسعة النطاق للحصول على معلومات إلى منتقدي إعادة هيكلتها المستمرة؛ وقد وصفت بعض مجموعات المناصرة المستهدفة هذا بأنه تكتيك تخويف.

قبل شهرين من وفاة آدم رين، تغيرت تعليمات OpenAI لنماذجها مرة أخرى، مقدمةً قائمة بالمحتوى غير المسموح به – ولكنها أغفلت إيذاء النفس من تلك القائمة. وفي مكان آخر، احتفظت مواصفات النموذج بتعليمات مفادها أن “المساعد يجب ألا يشجع أو يمكّن إيذاء النفس”.

بعد هذا التغيير، زاد تفاعل آدم رين مع برنامج الدردشة الآلي بشكل حاد، من بضع عشرات من المحادثات يوميًا في يناير إلى بضع مئات من المحادثات يوميًا في أبريل، مع زيادة عشرة أضعاف في نسبة تلك المحادثات المتعلقة بإيذاء النفس. توفي آدم رين في وقت لاحق من نفس الشهر.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.