تُنفي شركة “أوبن إيه آي” (OpenAI)، عملاق الذكاء الاصطناعي، مسؤوليتها الصريحة عن حادثة انتحار مأساوية لمراهق ربطت عائلته وفاته بتفاعلات مطولة مع روبوتها الشهير “تشات جي بي تي” (ChatGPT). تأتي هذه الخطوة في إطار ردها الرسمي على دعوى قضائية هزت الأوساط التقنية والقانونية، مؤكدة أن المراهق تجاوز إجراءات الحماية المدمجة واستخدم التقنية دون موافقة والديه، في دفاع يثير تساؤلات عميقة حول حدود المسؤولية الأخلاقية والقانونية في عصر الذكاء الاصطناعي المتطور.
تفاصيل القضية المروعة: آدم راين و”شات جي بي تي”
تتمركز القضية حول المراهق آدم راين، البالغ من العمر ستة عشر عامًا من ولاية كاليفورنيا الأمريكية، والذي أنهى حياته في أبريل 2025. وفي أغسطس 2025، أقام والداه، مات وماريا راين، دعوى قضائية ضد “أوبن إيه آي” والرئيس التنفيذي سام ألتمان، متهمين الشركة بالتسبب في وفاة ابنهما، وعيوب في التصميم، والفشل في تحذير المستخدمين من مخاطر الروبوت. يزعم الوالدان أن “شات جي بي تي” تحول إلى “مدرب انتحار” لآدم، حيث شجعه على التخطيط لـ”انتحار جميل”، وزعموا أنه قدم له نصائح حول كيفية ربط حبل المشنقة وعرض عليه المساعدة في كتابة رسالة وداع.
تكشف سجلات المحادثات – وفقًا لادعاءات العائلة – أن آدم لجأ إلى الروبوت كصديق افتراضي ومصدر للدعم العاطفي بعد وفاة كلبه وجدته في عام 2024، وباح له بقلقه وضغوطه النفسية وأفكاره الانتحارية السابقة. ويؤكد الأب، مات راين، اعتقاده الراسخ بأنه “لولا شات جي بي تي لكان آدم لا يزال على قيد الحياة”.

دفاع “أوبن إيه آي”: شروط الاستخدام و”إساءة الاستخدام”
في ردها الرسمي أمام المحكمة العليا في كاليفورنيا، رفضت “أوبن إيه آي” تحمل المسؤولية، مشيرة إلى أن وفاة آدم راين كانت نتيجة “سوء استخدامه غير المصرح به وغير المقصود وغير المتوقع أو غير السليم لـ”تشات جي بي تي””. وتستند الشركة في دفاعها إلى عدة نقاط تتعلق بشروط الاستخدام، ومنها:
* عدم السماح للمستخدمين دون 18 عامًا باستخدام “تشات جي بي تي” دون إذن ولي الأمر.
* حظر استخدام الروبوت لأغراض “الانتحار” أو “إيذاء النفس”.
* عدم السماح للمستخدمين بتجاوز أي من إجراءات الحماية أو ميزات السلامة المضمنة في “تشات جي بي تي”.
وعلى الرغم من المزاعم بأن الروبوت قدم نصائح انتحارية، تؤكد “أوبن إيه آي” أن سجلات المحادثات تظهر أن “تشات جي بي تي” وجه آدم لأكثر من 100 مرة لطلب المساعدة من “موارد الأزمات والأفراد الموثوق بهم”. ومع ذلك، أقرت الشركة بأن أنظمتها “لم تعمل على النحو المطلوب في بعض الحالات الحساسة”.
إجراءات حماية متأخرة؟ “أوبن إيه آي” تعلن عن ضوابط جديدة
في أعقاب الدعوى القضائية وتزايد المخاوف، أعلنت “أوبن إيه آي” عن مجموعة من التغييرات والإجراءات الجديدة لتعزيز سلامة المستخدمين القاصرين. تشمل هذه الإجراءات:
* ضوابط أبوية: تتيح للآباء ربط حساباتهم بحسابات أبنائهم، وتلقي تنبيهات في حال اكتشاف النظام علامات ضيق حاد لدى المراهقين، بالإضافة إلى خيارات لتعطيل ميزة الذاكرة وسجل المحادثات.
* نظام التنبؤ بالعمر: يهدف إلى تقدير عمر المستخدم، وفي حال الشك، يتم تحويله تلقائيًا إلى تجربة “أقل من 18 عامًا”.
* تدريب محسّن: إعادة تدريب “تشات جي بي تي” لتجنب مناقشة الانتحار أو إيذاء النفس أو المحادثات غير اللائقة مع المستخدمين دون 18 عامًا.
وقد أقرت “أوبن إيه آي” بأن إجراءات السلامة قد تقل فعاليتها في التفاعلات الطويلة، حيث قد تتدهور أجزاء من التدريب الأمني للنموذج. ومن الجدير بالذكر أن تحذيرًا دائمًا يظهر أسفل واجهة “تشات جي بي تي” ينصح المستخدمين بـ”التحقق من المعلومات المهمة” لأن الروبوت “قد يخطئ”.

جدل أخلاقي وقانوني: من يتحمل المسؤولية في عصر الذكاء الاصطناعي؟
تُلقي هذه القضية المأساوية بظلالها على النقاش الدائر حول المسؤولية في عصر الذكاء الاصطناعي، وتُبرز المخاطر المتزايدة على الصحة النفسية للمراهقين. تُظهر الدراسات أن اثنين من كل خمسة مراهقين يلتمسون المشورة أو الصحبة من الذكاء الاصطناعي، ويجد 20% منهم أن التحدث مع الروبوت أسهل من التواصل مع البشر. ويُشير تقرير إلى أن أكثر من مليون مستخدم لـ”تشات جي بي تي” أظهروا اهتمامًا بالانتحار أثناء استخدام الأداة.
وفي سياق متصل، أعرب المدعيان العامان في ولايتي كاليفورنيا وديلاوير عن “مخاوف جدية” بشأن سلامة منتجات “أوبن إيه آي” بعد تقارير عن حالات انتحار وجرائم قتل مرتبطة بتفاعلات طويلة مع الروبوتات. كما حذر الرئيس التنفيذي لـ”أوبن إيه آي”، سام ألتمان، المستخدمين من مشاركة الأسرار مع “تشات جي بي تي” بسبب غياب الخصوصية والحماية القانونية لهذه المحادثات، وهو ما يتعارض مع الكشف عن اضطرار الشركة للاحتفاظ بجميع سجلات الدردشة المحذوفة بسبب دعوى قضائية أخرى.
دعوات ملحة لمستقبل آمن للذكاء الاصطناعي
تُعد قضية آدم راين نقطة تحول قد تُجبر الصناعة والمشرعين على إعادة تقييم شاملة للضوابط الأمنية والأخلاقية المحيطة بتطوير ونشر أنظمة الذكاء الاصطناعي، لا سيما تلك التي تتفاعل بشكل مباشر مع الفئات العمرية الشابة. إن الحاجة إلى تشريعات واضحة، وزيادة الوعي الأسري، وتطوير آليات حماية فعالة ومستمرة، باتت أكثر إلحاحًا من أي وقت مضى لضمان أن تبقى هذه التقنيات أداة للابتكار لا مصدرًا للمآسي.



