أضافت OpenAI قواعد أمان جديدة للمراهقين إلى ChatGPT بينما يدرس المشرعون معايير الذكاء الاصطناعي للقاصرين

**OpenAI تعزز سلامة المراهقين على ChatGPT وسط تزايد التدقيق التنظيمي**

أطلقت OpenAI بروتوكولات أمان جديدة لمستخدميها المراهقين على منصة ChatGPT الشهيرة، في خطوة تحظى بمتابعة دقيقة في ظل تكثيف المشرعين عالميًا للمناقشات حول وضع معايير للذكاء الاصطناعي خاصة بالقاصرين. وتهدف هذه التحديثات إلى تعزيز سلامة وملاءمة التفاعلات للأفراد الأصغر سنًا الذين يستخدمون الذكاء الاصطناعي التوليدي.

من بين الإجراءات الجديدة، تُفيد التقارير بأن شركة OpenAI تُطبّق سياسات محتوى أكثر صرامة لتصفية المواد الضارة أو غير المناسبة للفئات العمرية المستهدفة، إلى جانب تقنيات مُحسّنة للإشراف تهدف إلى منع التجارب السلبية. وتعكس هذه الخطوات الاستباقية تركيزًا متزايدًا من جانب القطاع على التحديات الفريدة التي يفرضها الذكاء الاصطناعي على الفئات العمرية الأصغر، بما في ذلك المخاوف بشأن المعلومات المضللة، والخصوصية، واحتمالية التعرّض لمحتوى حساس.

يُعدّ توقيت هذه التغييرات بالغ الأهمية، إذ يتزامن مع تزايد دعوات صانعي السياسات حول العالم لتوفير حماية قوية للأطفال والمراهقين مع ازدياد انتشار أدوات الذكاء الاصطناعي. وبينما تدرس الحكومات تشريعات لتنظيم تأثير الذكاء الاصطناعي على الشباب، تُبرز التعديلات الأخيرة التي أجرتها OpenAI جهودًا متواصلة للتنظيم الذاتي ومعالجة قضايا السلامة الحرجة، مما قد يؤثر على توجهات السياسات المستقبلية لتطوير ونشر الذكاء الاصطناعي بشكل مسؤول للقاصرين.

اترك تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *