الرياضيات "المحرجة" لشركة OpenAI

## اللغز الدائم: الرياضيات "المحرجة" لشركة OpenAI

على الرغم من براعتها المذهلة في توليد اللغة والكتابة الإبداعية والاستدلال المعقد، فإن نماذج اللغة الكبيرة (LLMs) من OpenAI، مثل ChatGPT، غالبًا ما تتعثر في ما يبدو أنه عمليات حسابية بسيطة. وقد أطلق البعض على هذه الظاهرة اسم "الرياضيات المحرجة"، مما يسلط الضوء على التناقض الصارخ بين قدراتها المتقدمة وضعفها المفاجئ في العمليات الحسابية الأساسية.

يكمن جوهر المشكلة في كيفية بناء هذه النماذج. تُعدّ نماذج التعلم الآلي، في جوهرها، محركات تنبؤ متطورة. فهي تتعلم الأنماط من كميات هائلة من البيانات النصية لتحديد الكلمة التالية الأكثر احتمالاً في سلسلة من الكلمات. وعندما يُطلب منها إجراء عملية حسابية، فإنها لا "تحسب" فعليًا بالطريقة التي تفعلها الآلة الحاسبة أو الدماغ البشري. بدلاً من ذلك، تُولّد سلسلة من الكلمات (أرقام وعوامل) تبدو وكأنها حل رياضي صحيح، استنادًا إلى الأنماط التي لوحظت أثناء التدريب.

يؤدي هذا إلى حالات قد يكتب فيها النموذج مقالًا دقيقًا عن فيزياء الكم، لكنه يفشل في جمع قائمة أرقام بسيطة أو إجراء عملية ضرب أرقام متعددة بشكل صحيح. غالبًا ما تكون الأخطاء طفيفة وليست فادحة، مما يدل على نقص في الفهم الحقيقي للعمليات الحسابية.

رغم أن هذا الخلل يبدو بسيطاً، إلا أن هذه "الرياضيات المحرجة" لها دلالات بالغة الأهمية. فهي تُبرز قصور النماذج التنبؤية البحتة في المهام التي تتطلب دقة مطلقة في الحقائق أو حسابات دقيقة. كما تُسلط الضوء على التحدي المستمر الذي يواجه مطوري الذكاء الاصطناعي: وهو سد الفجوة بين فهم اللغة المتطور والاستدلال الحتمي الموثوق.

تظهر حلول جديدة، لا سيما من خلال "استخدام الأدوات" حيث تُدمج نماذج التعلم الآلي مع محركات حسابية خارجية (مثل مترجمات بايثون أو وولفرام ألفا) لتخفيف عبء العمليات الحسابية. يستفيد هذا النهج من قدرة نموذج التعلم الآلي على فهم الاستعلام وصياغة المشكلة، مع إسناد الحساب إلى نظام متخصص وموثوق. لا تُعدّ "النتائج الحسابية المعقدة" دليلاً على فشل جوهري في الذكاء الاصطناعي، بل هي تذكير هام بحدوده المعمارية الحالية والأساليب المبتكرة التي يعمل المطورون على توسيعها.

اترك تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *