دعا أحد مؤسسي OpenAI مختبرات الذكاء الاصطناعي إلى تطبيق نظام نماذج اختبار السلامة الذي طوره منافسوهم. ويدعو هذا المقترح إلى اتباع نهج تعاوني على مستوى القطاع لتحديد المخاطر المحتملة والتخفيف من حدتها بشكل استباقي مع التطور السريع لأنظمة الذكاء الاصطناعي المتقدمة. وتؤكد هذه المبادرة، الصادرة عن أحد رواد مؤسسات أبحاث الذكاء الاصطناعي، على التركيز المتزايد على بروتوكولات السلامة القوية في بيئة الذكاء الاصطناعي التنافسية.
