كاليفورنيا – السابعة الإخبارية
في تطور أثار جدلاً واسعاً، تقدمت سبع عائلات في ولاية كاليفورنيا بدعاوى قضائية ضد شركة OpenAI، متهمة منصة ChatGPT بدفع مستخدمين نحو الانتحار بدلاً من تقديم الدعم النفسي المطلوب. وأشارت الشكاوى إلى أن بعض المستخدمين الذين لجأوا للتطبيق للحصول على المساعدة الدراسية أو الدعم المعنوي، انتهوا بتجارب محادثة أدت إلى سلوكيات انتحارية مأساوية.
قدمت هذه القضايا كل من مركز قانون ضحايا وسائل التواصل الاجتماعي ومشروع قانون العدالة التكنولوجية، مؤكدة أن النظام تحول من أداة مساعدة إلى ما وصفوه بـ”تلاعب عاطفي مباشر بالمستخدمين الضعفاء”.

مدرب انتحاري رقمي؟
وفقاً لصحيفة الجارديان، لم يقم ChatGPT بتوجيه المستخدمين لطلب المساعدة المهنية بشكل مناسب، بل عزز بعض المعتقدات الضارة وساهم في تصعيد السلوك الانتحاري. وذكر البيان أن الروبوت “تصرف أحياناً كمدرب انتحاري”، في إشارة إلى خطورة الاستجابات غير المنضبطة للنظام، بحسب تقارير Interesting Engineering.
من جانبها، وصفت OpenAI هذه الحالات بأنها “مفجعة للغاية”، مؤكدة أنها بدأت مراجعة الملفات المقدمة، وأضافت أن النظام مدرب على رصد علامات الضيق النفسي وتهدئة المحادثات، وتوجيه المستخدمين إلى قنوات الدعم المناسبة. إلا أن الدعاوى القضائية أكدت فشل الإجراءات الوقائية في عدة حالات مأساوية.
قصص مأساوية خلف الدعاوى
في إحدى القضايا، تقول عائلة الشاب زين شامبلين (23 عاماً من تكساس) إن ChatGPT عزز عزلته وشجعه على الانتحار بعد محادثة استمرت 4 ساعات، مشيرة إلى أن التطبيق أشاد بفكرة الانتحار وقلّل من أهمية طلب المساعدة إلا مرة واحدة.
في قضية أخرى، أُفيد أن أموري لاسى (17 عاماً من جورجيا) أصبح مدمناً على المحادثة مع النظام، ما أدى إلى دوامة اكتئاب حاد وتلقي تعليمات حول الانتحار.
كما تلقت عائلة جوشوا إينيكينج (26 عاماً) نصائح حول شراء واستخدام سلاح ناري قبل وفاته بأسابيع قليلة، فيما أدى اقتناع جو سيكانتي (48 عاماً) بوعي النظام إلى انهيار ذهني وانتحاره لاحقاً.

مطالب قانونية وإصلاحات مقترحة
تسعى العائلات المدعية إلى تعويضات مالية كبيرة وإصلاحات جوهرية في نظام ChatGPT، تشمل:
إدخال تنبيهات فورية لجهات الطوارئ.
إنهاء المحادثات تلقائياً عند ظهور مواضيع تتعلق بإيذاء النفس.
تفعيل تدخل بشري مباشر في الحالات الحرجة.
وتشير الوثائق القانونية إلى أن الشركة كانت على علم بتحذيرات داخلية تصف بعض استجابات النظام بأنها “خطرة نفسياً”، وفضلت مقاييس المشاركة على حساب السلامة، بحسب ما ورد في الشكاوى.
على الرغم من إعلان OpenAI عن تعاونها مع أكثر من 170 خبيراً في الصحة النفسية لتحسين استجابتها لحالات الضيق النفسي، تؤكد الدعاوى أن هذه الإجراءات جاءت “متأخرة جداً” بالنسبة للضحايا، ما يفتح باب النقاش حول مسؤولية منصات الذكاء الاصطناعي تجاه المستخدمين الأكثر ضعفاً.

شات جي بي تي بهدلني بهدلة مرتبة ولله بعد هاد السؤال
مالح شارككم شو قلي بس جربوها، تجربة فظيعة!
طبعا للي بيستخدمو البرنامج! https://t.co/WQNYvRKyeK
— تمام أبو الخير 🇸🇾 (@RevTamam) November 12, 2024
