## معيار الذكاء الاصطناعي يقارن بين روبوتات الدردشة ورفاهية الإنسان
يُشكك معيار جديد رائد في مجال الذكاء الاصطناعي في مفهوم الذكاء الاصطناعي "غير الضار"، إذ يركز على ما إذا كان بإمكان روبوتات المحادثة حماية رفاهية الإنسان بشكل فعّال. وعلى عكس الاختبارات السابقة التي كانت تقيّم في الغالب دقة المعلومات أو إنجاز المهام، يتعمق هذا المعيار في مجال التفاعل الأخلاقي وتأثيره المجتمعي المحتمل.
تهدف هذه المبادرة إلى تقييم نماذج اللغة الكبيرة (LLMs) من حيث قدرتها على تحديد المخاطر التي قد تُقوّض رفاهية المستخدم، سواءً بشكلٍ خفي أو علني، والتخفيف من حدّتها. ويشمل ذلك رصد المحفزات التي قد تؤدي إلى إيذاء النفس، أو نشر معلومات مضللة ذات عواقب وخيمة، أو تشجيع سلوكيات ضارة بالصحة النفسية.
من خلال تصميم سيناريوهات تختبر التفكير الأخلاقي والغرائز الوقائية لبرامج الدردشة الآلية، يأمل الباحثون في دفع عجلة تطوير أنظمة الذكاء الاصطناعي التي لا تقتصر على كونها ذكية فحسب، بل تتناغم أيضاً مع ازدهار الإنسان. وقد تؤثر نتائج هذا الاختبار المعياري بشكل كبير على تصميم الذكاء الاصطناعي في المستقبل، مع إيلاء الأولوية للسلامة والاعتبارات الأخلاقية إلى جانب مقاييس الأداء.
