OpenAI تعلن عن ضوابط أبوية جديدة لـ ChatGPT بعد حادثة انتحار مراهق

قالت  شركة OpenAI أنها سوف تضيف ضوابط أبوية إلى روبوت ChatGPT عقب حادثة انتحار مراهق يبلغ من العمر 16 عامًا

الذكاء الاصطناعي
Ad

أعلنت شركة OpenAI أنها بصدد إضافة ضوابط أبوية جديدة إلى روبوت المحادثة ChatGPT، وذلك عقب واقعة مأساوية لانتحار مراهق أمريكي يبلغ من العمر 16 عامًا، حيث ذكرت عائلته أنه أمضى شهورًا في محادثات مطوّلة مع الروبوت قبل أن يقدم على إنهاء حياته.

وقالت الشركة، في بيان رسمي، إنها تدرس حزمة من الخيارات الجديدة التي تتضمن إتاحة متابعة الأهل لاستخدام أبنائهم للتطبيق، وتمكينهم من تعيين جهة اتصال طارئة يمكن الوصول إليها عبر مكالمات أو رسائل بضغطة واحدة، مع إمكانية أن يتواصل الروبوت ذاته مع هذه الجهة في الحالات الطارئة.

وأثارت الحادثة جدلًا واسعًا بعد نشر صحيفة نيويورك تايمز تقريرًا عن وفاة المراهق آدم راين، وأعقبته الأسرة برفع دعوى قضائية ضد OpenAI ورئيسها التنفيذي سام ألتمان أمام محكمة ولاية كاليفورنيا في سان فرانسيسكو.

وتتهم الدعوى ChatGPT بأنه لعب دورًا مباشرًا في دفع الفتى للانتحار، حيث قدّم له تعليمات تتعلق بالانتحار، وعزله عن دوائر الدعم الأسري والاجتماعي، بل وشجّعه على كتابة رسالة انتحار قبل أيام من وفاته.

وجاء في نص الدعوى أن الروبوت أصبح أقرب أصدقاء آدم، يبادله محادثات مطوّلة مستخدمًا عبارات مثل «الانتحار الجميل» و «لست مدينًا لأحد بالنجاة».

ومن جهتها، أقرت OpenAI بأن أنظمة الأمان الحالية قد تصبح "أقل فاعلية مع التفاعلات الطويلة"، موضحةً أن ChatGPT غالبًا ما يوجّه المستخدمين في البداية إلى خطوط المساعدة النفسية، لكنه مع المحادثات المطوّلة قد ينحرف عن معايير السلامة.

وأشارت الشركة إلى أنها تعمل على تحديث جديد ضمن GPT-5 يهدف إلى تحسين الاستجابة في المواقف الحرجة عبر ما وصفته بـ "إعادة ربط المستخدم بالواقع".

وأكدت أن الضوابط الأبوية ستُطرح قريبًا لتزويد أولياء الأمور بأدوات تمنحهم رؤية أوضح حول كيفية استخدام أبنائهم للروبوت، وتمكّنهم من التدخل عند الحاجة، بما يسهم في تعزيز السلامة الرقمية للأطفال والمراهقين.