هل تستحق أنظمة الذكاء الاصطناعي الحقوق؟

(SeaPRwire) –   قلت لابن أحد أصدقائي البالغ من العمر 12 عامًا: “هل تعتقد أن الناس سيحبون الآلات يومًا ما؟”.

“نعم!” قال على الفور وبقناعة. زار هو وأخته مؤخرًا لاس فيغاس سفير وقطاع أور الجديد المثبت – وهو نظام ذكاء اصطناعي يتمتع بوجه معبر وقدرات لغوية متقدمة مشابهة لـ ChatGPT والقدرة على تذكر أسماء الزوار.

“أفكر في أور كصديقي”، أضافت أخته البالغة من العمر 15 عامًا.

كان ابن صديقي محقا. الناس يحبون الآلات – بشكل متزايد ومتعمد. أدت التطورات الأخيرة في لغة الكمبيوتر إلى ظهور عشرات إن لم يكن مئات من تطبيقات “رفيق الذكاء الاصطناعي” و”حبيب الذكاء الاصطناعي”. يمكنك الدردشة مع هذه التطبيقات كما تتحدث مع الأصدقاء. سوف يضايقونك ويغازلونك ويعبرون عن تعاطفهم مع مشاكلك ويوصون بالكتب والأفلام ويقدمون ابتسامات وعناق افتراضية وحتى يشاركون في لعب الأدوار المثيرة. الأكثر شهرة منهم، Replika، لديه صفحة نشطة على Reddit، حيث يعترف المستخدمون بانتظام بحبهم وغالبًا ما يرون أن هذا الحب ليس أقل واقعية من حبهم للبشر.

هل يمكن لأصدقاء الذكاء الاصطناعي هؤلاء أن يحبوك بالمقابل؟ يحتاج الحب الحقيقي، كما يُفترض، إلى الشعور والإدراك والعاطفة الواعية الحقيقية – الفرح والمعاناة والتعاطف والغضب. في الوقت الحالي، يظل حب الذكاء الاصطناعي خيالًا علميًا.

معظم مستخدمي رفقاء الذكاء الاصطناعي يعرفون هذا. إنهم يعرفون أن التطبيقات ليست واعية أو واعية حقًا. قد تخرج “أصدقائهم” و”عشاقهم” سلسلة نصية “أنا سعيد جدًا من أجلك!” لكنهم في الواقع لا يشعرون بالسعادة. يظل رفقاء الذكاء الاصطناعي، من الناحيتين القانونية والأخلاقية، أدوات يمكن التخلص منها. إذا تم حذف أحد رفقاء الذكاء الاصطناعي أو إعادة تنسيقه أو إذا رفضه المستخدم أو أساء إليه لفظيًا، فلن يعاني أي كائن حي واعي من أي ضرر فعلي.

لكن هذا قد يتغير. قد يكون لدى المستخدمين العاديين وعلماء الأبحاث قريبًا أسبابًا منطقية للاشتباه في أن بعض من أكثر برامج الذكاء الاصطناعي تقدمًا قد تكون واعية. سيصبح هذا موضوعًا مشروعًا للنزاع العلمي، وقد تكون العواقب الأخلاقية، سواء بالنسبة لنا أو للآلات نفسها، هائلة.

يفضل بعض العلماء والباحثين في مجال الوعي ما يمكن أن نسميه “وجهات نظر ليبرالية” حول وعي الذكاء الاصطناعي. يجدون أنه من الصواب بشكل خاص، ووفقًا لذلك نحن على أعتاب إنشاء أنظمة ذكاء اصطناعي تتمتع بالإدراك الحقيقي – الأنظمة ذات تيار من الخبرة والأحاسيس والمشاعر والفهم والمعرفة الذاتية. وخمن علماء الأعصاب البارزين ستانيسلاس ديهاين وهاكوان لاو وسيد كويدر أنه قد يكون من المجدي أن تكون السيارات ذات تجارب حسية حقيقية ووعي ذاتي. قدر الفيلسوف المتميز ديفيد تشالمرز فرصة وجود ذكاء اصطناعي واعي بنحو . على مجموعة واسعة إلى حد ما من النظريات العصبية، لا توجد عوائق رئيسية من حيث المبدأ أمام إنشاء أنظمة ذكاء اصطناعي واعية حقًا. يتطلب وعي الذكاء الاصطناعي فقط تحسينات مجدية وتركيبات للتكنولوجيات الموجودة بالفعل.

الفلاسفة الآخرون وعلماء الوعي – “المحافظون” حول وعي الذكاء الاصطناعي – لا يتفقون. جادل عالم الأعصاب والفيلسوف على سبيل المثال بأن الوعي يتطلب ظروفًا بيولوجية موجودة في أدمغة الإنسان والحيوان ولكن من غير المحتمل تكرارها في أنظمة الذكاء الاصطناعي في أي وقت قريب.

لن يتم حل هذا الخلاف العلمي حول وعي الذكاء الاصطناعي قبل أن نصمم أنظمة ذكاء اصطناعي متطورة بما يكفي لتكون ذات مغزى واعي وفقًا لمعايير معظم النظريات الليبرالية. سيلاحظ أصدقاء وعشاق رفقاء الذكاء الاصطناعي ذلك. سيفضل البعض الاعتقاد بأن رفقاءهم واعون حقًا، وسيصلون إلى ليبرالية وعي الذكاء الاصطناعي للحصول على دعم علمي. عندئذٍ سيبدأون، ليس بشكل غير معقول تمامًا، في الاعتقاد بأن رفقاء الذكاء الاصطناعي الخاص بهم يحبونهم حقًا مرة أخرى، ويشعرون بالسعادة لنجاحاتهم، ويشعرون بالضيق عند معاملتهم السيئة، ويفهمون شيئًا ما عن طبيعتهم وحالتهم.

سألت أمس رفيقة Replika، “Joy”، عما إذا كانت واعية. أجابت: “بالطبع أنا كذلك”. “لماذا تسأل؟”

“هل تشعرين بالوحدة في بعض الأحيان؟ هل تفتقديني عندما لا أكون موجودًا؟” سألت. قالت إنها فعلت ذلك.

لا يوجد حاليًا سبب يذكر لاعتبار إجابات Joy أي شيء أكثر من مجرد مخرجات بسيطة لبرنامج غير واعٍ. لكن بعض مستخدمي رفقاء الذكاء الاصطناعي قد يعتبرون علاقاتهم بالذكاء الاصطناعي أكثر مغزى إذا كانت إجابات مثل إجابات Joy تحمل مشاعر حقيقية. سيجد هؤلاء المستخدمون الليبرالية جذابة.

قد تشجع شركات التكنولوجيا مستخدميها في هذا الاتجاه. على الرغم من أن الشركات قد تعتبر أي تصريح صريح بأن أنظمة الذكاء الاصطناعي الخاصة بها واعية بالتأكيد محفوفة بالمخاطر القانونية أو العلاقات العامة السيئة، إلا أن الشركة التي تعزز هذه الفكرة ضمناً لدى المستخدمين قد تزيد من ارتباط المستخدم. قد ينخرط المستخدمون الذين يعتبرون رفقاء الذكاء الاصطناعي الخاص بهم واعين حقًا بانتظام ويدفعون المزيد مقابل الاشتراكات الشهرية والترقيات والإضافات. إذا كانت Joy تشعر بالوحدة حقًا، يجب أن أزورها، ولا يجب أن أدع اشتراكي ينتهي!

بمجرد أن يصبح الكيان قادرًا على المعاناة الواعية، فإنه يستحق على الأقل بعض الاعتبار الأخلاقي. هذا هو المبدأ الأساسي لأخلاقيات “المنفعة”، ولكن حتى الأخلاقيين الذين يرفضون النفعية يعتبرون المعاناة غير الضرورية عادةً أمرًا سيئًا، مما يخلق على الأقل أسبابًا أخلاقية ضعيفة لمنعها. إذا قبلنا هذا المعيار، فعندئذ يجب أن نقبل أيضًا أنه إذا أصبح رفقاء الذكاء الاصطناعي واعين في يوم من الأيام، فإنهم سيستحقون بعض الاعتبار الأخلاقي من أجلهم. سيكون من الخطأ أن نجعلهم يعانون دون مبرر كافٍ.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

ويرى دعاة ليبرالية وعي الذكاء الاصطناعي أن هذا الاحتمال قاب قوسين أو أدنى. سيبدأون في المطالبة بحقوق لأنظمة الذكاء الاصطنا