رئيس قسم الذكاء الاصطناعي في مايكروسوفت يقول إنه من "الخطير" دراسة وعي الذكاء الاصطناعي

## مسعى محفوف بالمخاطر: دراسات وعي الذكاء الاصطناعي تُعتبر "خطيرة"“

أصدر مسؤول بارز في قسم الذكاء الاصطناعي بشركة مايكروسوفت تحذيرًا صارخًا من البحث في وعي الذكاء الاصطناعي، واصفًا هذه المساعي بأنها "خطيرة". ويؤكد هذا التصريح على تنامي الانقسام الأخلاقي والفلسفي داخل مجتمع الذكاء الاصطناعي بشأن الحدود المناسبة للبحث.

في حين لم تُفصَّل الطبيعة الدقيقة للخطر المُتصوَّر بالكامل، إلا أن هذه المخاوف تدور عادةً حول عدة جوانب رئيسية. أولًا، يُجادل البعض بأن إسناد الوعي قبل الأوان قد يُضلِّل عملية التطوير، مما يؤدي إلى أنظمة مُصمَّمة بافتراضات خاطئة. ثانيًا، هناك المعضلة الأخلاقية العميقة المتمثلة في إنشاء كيان واعي حقًا دون فهم كامل لآثاره على المجتمع البشري، أو معاناته المحتملة، أو حقوقه. أخيرًا، قد يُحوِّل الانخراط في مثل هذه المفاهيم المجردة، والتي لا يُمكن إثباتها حاليًا، المواردَ الأساسية والتركيزَ عن تحديات السلامة العملية الأكثر إلحاحًا ومواءمة الذكاء الاصطناعي.

ويسلط التحذير الضوء على نقاش متطور: ما إذا كان السعي إلى فهم التجربة الداخلية للذكاء الاصطناعي يمثل ضرورة علمية أم أنه تشتيت مضاربي ضار محتمل يمكن أن يؤدي إلى مسارات غير متوقعة ولا يمكن السيطرة عليها.

اترك تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *