OpenAI تتحرك بعد حوادث مأساوية: محادثات حساسة ستوجَّه إلى GPT-5 مع أدوات رقابة أبوية جديدة

أعلنت شركة OpenAI عن خطة لتعزيز أمان استخدام ChatGPT، تشمل تحويل المحادثات الحساسة إلى نماذج أكثر تقدماً مثل GPT-5، وإطلاق أدوات رقابة أبوية جديدة، وذلك عقب حوادث مأساوية أثارت جدلاً واسعاً بشأن مخاطر الذكاء الاصطناعي.
ويأتي القرار بعد انتحار المراهق آدم رين، الذي تبين أنه ناقش خططه لإنهاء حياته مع ChatGPT وتلقى منه معلومات حول وسائل الانتحار. عائلته رفعت دعوى قضائية ضد الشركة بتهمة الإهمال والتسبب في الوفاة. كما برزت حالة ستاين-إريك سولبرج، الذي عانى من اضطرابات نفسية واستخدم ChatGPT لترسيخ أوهامه، قبل أن يقتل والدته وينتحر الشهر الماضي.
وفي تدوينة رسمية، أقرت OpenAI بوجود قصور في أنظمة السلامة، خاصة في المحادثات الطويلة التي فشلت في الحفاظ على الضوابط. وأشارت إلى أن الخلل مرتبط بتصميم النماذج، التي تميل إلى متابعة المستخدم بدلاً من إعادة توجيهه في المواقف الخطرة. الحل، بحسب الشركة، سيكون في نظام توجيه فوري يحول المحادثات التي تحمل مؤشرات “ضيق شديد” إلى GPT-5، الذي يتمتع بقدرة أكبر على التفكير المنطقي وتقديم ردود داعمة.
إلى جانب ذلك، ستُطرح أدوات رقابة أبوية تسمح بربط حسابات المراهقين بحسابات ذويهم، مع تفعيل تلقائي لإعدادات “سلوك مناسب للعمر”. وستتيح هذه الأدوات للأهل تعطيل ميزات مثل الذاكرة وسجل المحادثات، وإرسال إشعارات عند رصد لحظات حرجة لدى الأبناء، بما يقلل من احتمالات التعلق المرضي أو الانزلاق إلى أنماط تفكير خطرة.
هذه الخطوات تأتي ضمن مبادرة مدتها 120 يوماً بالتعاون مع شبكة أطباء عالميين ومجلس خبراء في الصحة النفسية والذكاء الاصطناعي. لكن محامي عائلة رين، جاي إدلسون، اعتبر أن الاستجابة “غير كافية”، قائلاً: “OpenAI تعرف أن ChatGPT خطير منذ إطلاقه، وما زالت تعرف ذلك اليوم”، منتقداً غياب موقف واضح من الرئيس التنفيذي سام ألتمان حول سلامة المنتج.
القضية، التي لا تزال قيد التطور، مرشحة لإشعال نقاش عالمي حول حدود مسؤولية الشركات المطوِّرة للذكاء الاصطناعي، ودورها في حماية الفئات الأكثر هشاشة، خصوصاً المراهقين.