## كشف أوهام ChatGPT
قدّم باحث سابق في OpenAI لمحةً رائعةً عن الآليات الداخلية لنماذج اللغة الضخمة، مُحلِّلاً على وجه التحديد ما يُطلق عليه غالبًا "الدوامة الوهمية" في ChatGPT. يتجاوز هذا التحليل المُعمَّق مجرد تصنيف مُخرَج الذكاء الاصطناعي على أنه "خاطئ"، بل يتتبَّع بدقة العملية التوليدية التي تُفضي إلى سردٍ مُؤكَّدٍ بثقة، ولكنه مُختلقٌ بالكامل.
يُبرز التحليل كيف يمكن لنموذج، عند مواجهة مُدخل غامض أو غير مُحدد بدقة، أن يتمسك بمسار معقول ولكنه خاطئ في نهاية المطاف. ثم تُعزز التحولات اللاحقة في المحادثة هذا الخطأ الأولي، حيث يُضيف الذكاء الاصطناعي تفسيرات منطقية - ولكنها غير مُثبتة واقعيًا - لأخطائه السابقة. يُؤدي هذا التأثير المُتسلسل إلى حلقة مُستدامة من "التلفيق"، حيث لا يقتصر دور النموذج على التخمين فحسب، بل يقوم ببناء عالم مُتماسك، وإن كان وهميًا، حول فرضيته الخاطئة الأولية.
تُعدّ هذه التحليلات ضرورية لفهم ليس فقط القيود، بل أيضاً السلوكيات الكامنة والناشئة للذكاء الاصطناعي المتطور. فهي تمهد الطريق لتطوير أنظمة أكثر قوة واستراتيجيات أفضل للمستخدمين للتفاعل مع المعلومات والتحقق منها، هذه الأنظمة القوية، وإن كانت لا تزال غير كاملة.
