أحد مؤسسي OpenAI يدعو مختبرات الذكاء الاصطناعي إلى إجراء اختبارات السلامة على النماذج المنافسة

يدعو مشروع ## إلى مراجعة النظراء في مجال سلامة الذكاء الاصطناعي

اقترح إيليا سوتسكيفر، المؤسس المشارك وكبير العلماء في OpenAI، نهجًا جديدًا لسلامة الذكاء الاصطناعي: وهو إلزام مختبرات الذكاء الاصطناعي الرائدة بإجراء اختبارات السلامة على نماذج منافسيها.

يُسلط هذا الاقتراح، الذي طُرح في مقابلة حديثة، الضوء على المخاوف المتزايدة داخل مجتمع الذكاء الاصطناعي بشأن التطور السريع للنماذج القوية واحتمالية ظهور مخاطر غير متوقعة. وتقترح رؤية سوتسكيفر نظامًا يُمكن فيه للمختبرات التنافسية، المُلمّة بطبيعة الحال بتعقيدات ونقاط ضعف تطوير الذكاء الاصطناعي، تقديمَ تقييم مستقل بالغ الأهمية لبروتوكولات السلامة وتحديدَ أنماط الفشل المحتملة قبل النشر العام.

تؤكد هذه الدعوة إلى شكل من أشكال "مراجعة الأقران" في مجال سلامة الذكاء الاصطناعي على ضرورة التعاون وسط منافسة شديدة، بهدف بناء مستقبل أكثر قوة وأمانًا جماعيًا للذكاء الاصطناعي المتقدم.

اترك تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *