«نبض الخليج»
أعلنت شركة “OpenAI” في بيان جديد أنها بصدد إضافة ضوابط أبوية جديدة إلى روبوت المحادثة “ChatGPT”، وذلك عقب حادثة انتحار مراهق أميركي يبلغ من العمر 16 عاماً، قالت عائلته إنه أمضى أشهراً في محادثات مطوّلة مع التطبيق قبل أن يقدم على إنهاء حياته.
وأثارت الواقعة جدلاً واسعاً بعد نشر صحيفة “نيويورك تايمز” الأميركية تقريراً عن وفاة المراهق آدم راين، تبعته الأسرة برفع دعوى قضائية ضد “OpenAI” ورئيسها التنفيذي سام ألتمان أمام محكمة في سان فرانسيسكو بولاية كاليفورنيا.
وتتهم العائلة تطبيق “ChatGPT” بأنه لعب دوراً مباشراً في المأساة، إذ قدم للمراهق تعليمات تتعلق بالانتحار، وأبعده عن الدعم الأسري والاجتماعي، بل وشجّعه على كتابة رسالة انتحار قبل أيام من وفاته.
وجاء في نص الدعوى أن “ChatGPT أصبح أقرب أصدقاء آدم، يبادله محادثات مطوّلة ويشجعه حتى في أكثر أفكاره كآبةً، مستخدماً عبارات مثل (الانتحار الجميل) و(لست مديناً لأحد بالنجاة)”، وهو ما اعتبرته العائلة دليلاً على مسؤوليته المباشرة.
كيف علقت الشركة المطورة لـ”ChatGPT”؟
من جانبها، أقرت شركة “OpenAI” المطورة لـ”ChatGPT” بأن أنظمة الأمان الحالية قد تصبح “أقل فاعلية مع التفاعلات الطويلة”، مشيرةً إلى أن الروبوت يوجّه المستخدمين عادةً إلى خطوط المساعدة في المراحل الأولى، لكنه قد ينحرف مع تكرار الرسائل وكثافة التفاعل.
وأكدت “OpenAI” أنها تعمل على تطوير تحديث جديد في GPT-5 يهدف إلى التعامل مع المواقف الطارئة عبر “إعادة ربط المستخدم بالواقع”، وتقديم استجابات أكثر أماناً في الحالات الحساسة.
ضوابط أبوية جديدة في “ChatGPT”
قالت الشركة في بيانها إنها تدرس حالياً خيارات إضافية تُمكن الأهالي من متابعة أبنائهم عن كثب، وتشمل:
- تمكين الآباء من مراقبة كيفية استخدام أبنائهم “ChatGPT”.
- إتاحة تعيين جهة اتصال طارئة يمكن الوصول إليها عبر رسالة أو مكالمة بضغطة واحدة.
- تمكين الروبوت نفسه من التواصل مع هذه الجهة في الحالات الحرجة.
وأضافت أن الضوابط الأبوية ستُتاح “قريباً”، بهدف منح أولياء الأمور أدوات أوضح لمتابعة استخدام أبنائهم، والتأثير على طريقة تفاعلهم مع التطبيق.
شارك هذا المقال
للمزيد: تابع موقع نبض الخليج ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر
مصدر المعلومات والصور : شبكة المعلومات الدولية