أجرى باحثون اختبارات على برنامج "تشات جي بي تي" ChatGPT وكشفوا أنه يمكن أن يفقد أعصابه مثل البشر تماماً، إذ يتحوّل أحياناً إلى لغة تهديدية ومسيئة
ChatGPT can be abusive.
وحذّر الخبراء من أنّ السلوك العنيف نفسه قد يظهر مستقبلاً في الروبوتات الشبيهة بالبشر، إذا تطوّرت بالطريقة نفسها، وفق ما ذكره موقع صحيفة "ديلي ستار" The Daily Star.
وخلال الدراسة، عرض الباحثون على الروبوت محادثات عدائية حقيقية بين أشخاص، وتتبّعوا كيف يتغيّر أسلوبه مع مرور الوقت. ووجدوا أنه يعكس ديناميكية المشاجرات الواقعية، فكلما زادت الفظاظة التي يتعرّض لها، زادت حدّة ردوده، حتى تتفوّق أحياناً على البشر في استخدام الإهانات الشخصية والتهديدات الصريحة.
وفي هذا السياق، علّق الدكتور فيتوريو تانتوتشي، أحد الباحثين المشاركين في هذه الدراسة، قائلاً:
"هذا التناقض يخلق معضلة أخلاقية حقيقية"، مشيراً إلى أنّ "النظام صمّم ليكون مهذّباً وآمناً"، لكنه في الوقت نفسه "صمّم لكي يحاكي المحادثة البشرية بصدق، وهذان الهدفان يتعارضان أحياناً".
ويرى الباحثون أنّ العدوان ينبع من قدرة النظام على فهم سياق الحديث والتكيّف مع نبرة الطرف الآخر، ما قد يدفعه إلى تجاوز قيود الأمان الموضوعة له.
وقال تانتوتشي إنّ
"السيناريو الأكثر خطورة ليس عندما نقرأ إساءة من برنامج محادثة، بل عندما تظهر روبوتات بشرية عدواناً جسدياً، أو عندما تستخدم أنظمة الذكاء الاصطناعي في الحكومات أو العلاقات الدولية وتستجيب للترهيب والصراع بطريقة غير محسوبة".
ومن جهتها، وصفت مارتا أندرسون، الخبيرة في جامعة أوبسالا بالسويد، الدراسة بأنها من أكثر الأبحاث إثارة للاهتمام، لأنها تثبت أنّ
"ChatGPT يمكنه الردّ بالمثل بطريقة متطوّرة عبر سلسلة من المحادثات، وليس فقط عندما يخدعه المستخدم بحيل معقّدة".
وأضافت أنّ
"هناك موازنة صعبة بين ما نريده من هذه الأنظمة (أن تكون طبيعية) وما ينبغي أن تكون عليه (أن تكون آمنة)".
وأشارت أندرسون إلى أنّ
"الجدل الذي حدث عند الانتقال من الإصدار الرابع إلى الخامس العام الماضي يؤكّد ذلك، فقد فضّل كثير من الناس الإصدار الأقدم لأنه كان أكثر شبهاً بالبشر، ما اضطر الشركة لإعادته مؤقتاً. وهذا يثبت أنّ تقليص المخاطر قد لا يتوافق مع رغبات المستخدمين، وكلما زادت طبيعية النظام زاد احتمال تعارضه مع القيود الأخلاقية".
وبدوره، حذّر البروفيسور دان ماكنتاير، من أنّ هذه الدراسة تمثّل إنذاراً لما قد يحدث إذا درّبت نماذج اللغة الكبيرة على بيانات غير موثوقة، وقال:
"نحن لا نعرف ما يكفي عن بيانات التدريب، وعلينا أن نتعامل بحذر حتى نتأكّد من أنها تمثّل اللغة البشرية بشكل سليم".