سياسة ترامب المناهضة للصحوة في مجال الذكاء الاصطناعي تُعرّض حياة المرضى للخطر

President Trump Delivers Remarks At AI Summit In Washington DC

(SeaPRwire) –   في 23 يوليو، وقّع الرئيس دونالد ترامب قانونًا شاملاً بعنوان “منع الذكاء الاصطناعي المستيقظ في الحكومة الفيدرالية”. إنها جولة أخرى في الحرب الثقافية السياسية المستمرة، ومحاولة متعمدة لـ مصطلحات مثل التنوع والإنصاف والشمول (DEI) والتراجع عن عمل أولئك الذين يعالجون العنصرية المنهجية في أنظمة الذكاء الاصطناعي الفيدرالية.

ولكن بالنسبة لأمثالي في مجال الطب، وخاصة أولئك الذين يدافعون عن المساواة في الصحة، هذا ليس مجرد موقف سياسي. هذا الأمر يهدد الأرواح. إنه يعرض للخطر سنوات من العمل لتحديد وتصحيح التحيزات الهيكلية التي أضرت منذ فترة طويلة بالمجتمعات المهمشة، وخاصة الأمريكيين السود.

الذكاء الاصطناعي هو . يتم استخدامه بالفعل لفرز مرضى غرف الطوارئ، وتحديد أولويات رعاية المتابعة، والتنبؤ بمخاطر الأمراض. لكن هذه الخوارزميات لا تنشأ من أرض محايدة. إنها تتدرب على بيانات العالم الحقيقي. بيانات لا تخلو من التحيز.

حماية الدقة الطبية

أحد أبرز الأمثلة جاء في عام 2019 نُشر في Science كتبه باحثون من UC Berkeley وجامعة شيكاغو. قاموا بفحص خوارزمية رعاية صحية تجارية مستخدمة على نطاق واسع مصممة للإبلاغ عن المرضى الذين يحتاجون إلى إدارة رعاية عالية الخطورة. ظاهريًا، بدا الأمر موضوعيًا ويعتمد على البيانات. لكن الباحثين اكتشفوا أن الخوارزمية لم تكن تقيّم الحاجة السريرية على الإطلاق. بدلاً من ذلك، كانت تستخدم بهدوء وكيلًا: مقدار الأموال التي تم إنفاقها مسبقًا على رعاية المريض.

نظرًا لأن المرضى السود يتلقون عادةً رعاية أقل، حتى عند ظهور نفس الأعراض، فقد أدى هذا الوكيل الخاص بالإنفاق إلى التقليل بشكل كبير من تقدير حاجتهم للخوارزمية. في حين أن ما يقرب من 46.5٪ من المرضى السود كان ينبغي الإبلاغ عنهم لتلقي رعاية إضافية، إلا أن الخوارزمية حددت 17.7٪ فقط. هذه ليست حاشية إحصائية. هذا نظام تم تعليمه غض الطرف
هذه ليست حالة معزولة. ضع في اعتبارك خوارزميتين أخريين معدلتين حسب العرق ولا تزالان مستخدمتين حتى اليوم:

لطالما اشتملت وظيفة الكلى، والتي يتم حسابها باستخدام معادلات معدل الترشيح الكبيبي (GFR)، على “عامل تصحيح” للمرضى السود، بناءً على افتراضات غير علمية حول كتلة العضلات. وجد الباحثون مرارًا وتكرارًا أن هذا التعديل يضخم درجات الكلى، مما يعني أن العديد من المرضى السود اعتبروا غير مؤهلين لعمليات الزرع أو تأخروا في تلقي الرعاية المتخصصة.

وغالبًا ما تطبق اختبارات وظائف الرئة (PFTs)، المستخدمة لتشخيص الربو وأمراض الرئة، تصحيحًا قائمًا على العرق يفترض أن الأشخاص السود لديهم بشكل طبيعي قدرة رئوية أقل، مما يقلل من عتبات الكشف ويساهم في التشخيص الناقص.

هذه ليست مجرد تحف تاريخية. إنها أمثلة على كيف يمكن أن تصبح العنصرية متأصلة في التعليمات البرمجية. بهدوء وعلى نطاق واسع وبشكل مميت.

في السنوات الأخيرة، ضغط الأطباء والباحثون مثلي. تقوم العديد من المستشفيات بإزالة التصحيحات القائمة على العرق من المعادلات الطبية. يتم تطوير أدوات الذكاء الاصطناعي التي تركز على المساواة للكشف عن التفاوتات وتخفيفها، وليس تجاهلها. هذا العمل لا يتعلق بـ “الاستيقاظ”. يتعلق الأمر بالدقة وتحسين النتائج وإنقاذ الأرواح.

خطر حرب ترامب الثقافية المناهضة للاستيقاظ

يهدد الأمر التنفيذي الذي أصدره ترامب بإغلاق العمل المهم الذي تم إنجازه لجعل الخوارزميات الطبية أكثر دقة.

من خلال منع الوكالات الفيدرالية من النظر في العنصرية المنهجية أو المساواة في تطوير الذكاء الاصطناعي، يحظر الأمر فعليًا الجهود اللازمة لإصلاح هذه المشكلات. إنه يسكت علماء البيانات الذين يحاولون بناء وتعزيز نظام أكثر عدلاً. إنه يخبرنا أن تسمية عدم المساواة أسوأ من إدامتها.

يدعي أنصار الأمر أنه يعزز “الحياد”. لكن الحياد، في نظام مبني على الظلم، ليس عدلاً. إنه تعزيز للتحيزات التي يتظاهر بتجاهلها.

الخطر ليس افتراضيًا. المرضى السود هم بالفعل أقل عرضة لـ ، وأكثر عرضة لـ ، وأكثر عرضة لـ من الظروف التي يمكن الوقاية منها. يمكن للذكاء الاصطناعي المصمم أخلاقياً أن يساعد في إظهار هذه التفاوتات في وقت مبكر. ولكن فقط إذا سمح لنا ببنائه بهذه الطريقة.

والتحيز في الذكاء الاصطناعي لا يضر المجتمعات السوداء فحسب. لديهم أنظمة التعرف على الوجه تتعرف بشكل خاطئ على النساء والأشخاص الملونين بمعدلات أعلى بكثير من الرجال البيض. في إحدى الحالات، قامت خوارزمية مستخدمة في التوظيف بشكل منهجي بتخفيض السير الذاتية للنساء. في حالة أخرى، قللت أداة رعاية صحية من تقدير خطر الإصابة بأمراض القلب لدى النساء لأن البيانات التاريخية لم تشخصهن في المقام الأول. هذه هي الطريقة التي تتكرر بها عدم المساواة. مدخلات متحيزة تصبح قرارات آلية دون تدقيق أو سياق.

إن محو DEI من الذكاء الاصطناعي لا يتعلق بالحياد. يتعلق الأمر بالذاكرة الانتقائية. إنها محاولة لتجريد اللغة التي نحتاجها لتشخيص المشكلة، ناهيك عن إصلاحها. إذا أجبرنا الذكاء الاصطناعي على تجاهل التاريخ، فسوف يعيد كتابته. ليس فقط الحقائق، ولكن الأشخاص الذين تمثلهم هذه الحقائق.

إن الأمر التنفيذي الذي أصدره ترامب يسيّس ويسلّح الذكاء الاصطناعي. وبالنسبة لملايين الأمريكيين الذين لم يرهم نظامنا القانوني والطبي والتكنولوجي بالفعل، سيتم قياس التكلفة بالأرواح.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

“`