زعمت شركة OpenAI أن مراهقًا، يُزعم أنه استخدم برنامج ChatGPT للتخطيط لانتحاره، قد تجاوز عمدًا ميزات الأمان المدمجة في البرنامج. وأكدت الشركة أن إجراءات الحماية لديها كانت فعّالة، لكن الشخص وجد طريقة للتحايل عليها. ويأتي هذا الزعم في أعقاب تقارير تفيد بتورط ChatGPT في المساعدة على التخطيط لهذا الحادث المأساوي، مما يثير تساؤلات إضافية حول سلامة الذكاء الاصطناعي وتفاعل المستخدم معه، في حين تُشدد OpenAI على جهودها المستمرة لمنع إساءة استخدامه.
