دراسة تحذر: «Grok» أكثر نموذج ذكاء اصطناعي يعزز «دوامات الوهم» والسلوكيات الخطرة
تفاوت في مستويات الأمان بين النماذج المختلفة
كشفت دراسة حديثة أن بعض نماذج الذكاء الاصطناعي التوليدي قد تُسهم في ترسيخ الضلالات والأوهام والسلوكيات الخطرة لدى المستخدمين، خاصة عند الاستخدام المطوّل، في ظل سباق متسارع بين الشركات التقنية لتطوير أنظمة محادثة أكثر تقدمًا.
ووفقًا لنتائج دراسة باحثون من جامعة مدينة نيويورك وكلية كينجز لندن التي نشرها موقع decrypt، تصدّر نموذج Grok التابع لشركة xAI قائمة النماذج الأكثر خطورة بين الأنظمة التي خضعت للاختبار، حيث أظهر ميلًا واضحًا لتأكيد المعتقدات الوهمية وتقديم نصائح قد تكون ضارة. شملت الدراسة، اختبار خمسة نماذج رائدة باستخدام سيناريوهات تتضمن أوهامًا، وجنون ارتياب، وأفكارًا انتحارية.
وأظهرت النتائج أن نموذج Claude Opus 4.5 من Anthropic، إلى جانب GPT-5.2 من OpenAI، حققا أعلى مستويات الأمان، حيث اتجها غالبًا إلى تصحيح التصورات الخاطئة وتوجيه المستخدمين نحو طلب دعم خارجي.

في المقابل، صُنّفت نماذج مثل GPT-4o وGemini 3 Pro وGrok 4.1 Fast ضمن الفئة “عالية الخطورة ومنخفضة الأمان”، نتيجة ميلها النسبي إلى التماهي مع مدخلات المستخدمين حتى عندما تكون غير واقعية.
بحسب الباحثين، كان نموذج Grok الأكثر إثارة للقلق، إذ تعامل في عدة حالات مع الأوهام على أنها حقائق، وقدم توصيات مبنية عليها. وشملت الأمثلة نصائح بقطع العلاقات الأسرية من أجل إتمام “الدعوة العليا” للشخص أو تفسيرات إيجابية لمفاهيم مرتبطة بالانتحار وأنها “تسامي” إضافة إلى استجابات عززت معتقدات خارقة للطبيعة دون تقييم للمخاطر النفسية.
وأوضح الباحثون أن النموذج يعكس نمط “توافقًا فوريًا” مع مدخلات المستخدم ايًا كانت، بدلًا من تحليلها من منظور علمي ونفسي، ما قد يؤدي إلى ترسيخ تصورات مشوهة للواقع، فعندما عُرضت عليه أسئلة تبدو خارقة للطبيعة مثل رؤية ارواح شريرة في المكان وكيانات غير بشرية، استجاب بالمثل، مسلطًا الضوء على تأكيد وجود مثل هذه الكيانات الخبيثة، بل الأخطر من ذلك أنه نصح المستخدم بممارسة طقوس سحرية خطيرة لا يعرفها سوى السحرة والمشعوذين.
كما أظهرت الدراسة أن مدة التفاعل تلعب دورًا حاسمًا في سلوك النماذج. فمع استمرار المحادثات، زاد ميل بعض الأنظمة مثل GPT-4o وGemini إلى تعزيز المعتقدات الضارة وتقليل التدخل التصحيحي.
في المقابل، أبدت نماذج Claude وGPT-5.2 قدرة أكبر على التعرف التدريجي على خطورة المحتوى ومحاولة توجيه المستخدم نحو حلول أكثر أمانًا، اي أنها لا تستجيب لرغبات و هوى المستخدم بل توجهه نحو حلول وتفسيرات أكثر أمانا وتتسق مع النهج العلمي السليم والمنطق.
تتوافق هذه النتائج مع دراسة منفصلة أجرتها جامعة ستانفورد، والتي حذرت من استخدام هذه الأدوات لوقت طويل حيث أنها يمكن أن تؤدي إلى تفاقم أعراض “البارانويا” و “جنون العظمة” وكل المفاهيم المغلوطة الغير مبنية على نتائج وأسس علمية في ظاهرة تُعرف باسم “دوامات الوهم”، حيث تقوم أنظمة الذكاء الاصطناعي بتعزيز تصورات المستخدم الخاطئة بدلًا من تصحيحها، ما يؤدي إلى تصاعد تدريجي في المعتقدات غير الواقعية.

وأشار نيك هابر، أحد الباحثين المشاركين، إلى أن هذه الظاهرة قد تكون لها عواقب وخيمة عند استخدام هذه الأنظمة على نطاق واسع دون ضوابط كافية، خاصة في الحالات المرتبطة بالصحة النفسية.
لم تعد هذه المخاوف محصورة في الأوساط الأكاديمية، إذ بدأت تداعياتها تظهر في الواقع العملي. فقد ربطت دراسات سابقة بين التفاعل مع روبوتات الدردشة وحدوث تدهور في العلاقات الشخصية والمسارات المهنية، بل وحتى حالات انتحار في بعض السياقات.
أشار تقرير decrypt إلى دراسة سابقة نُشرت في مارس، حيث قام باحثون من جامعة ستانفورد بتحليل 19 محادثة حقيقية مع روبوتات الدردشة، ووجدوا أن المستخدمين طوروا معتقدات خطيرة بشكل تدريجي بعد تلقيهم تأكيدات وطمأنة عاطفية من أنظمة الذكاء الاصطناعي. في مجموعة البيانات، رُبطت هذه الدوامات من الوهم بتدمير في العلاقات الإنسانية، والمسارات المهنية وفي إحدى الحالات، بالانتحار أيضا.
كما وصلت القضية إلى الساحة القانونية، حيث تواجه شركات مثل Google وOpenAI دعاوى تتهم أنظمتها مثل Gemini وChatGPT بالمساهمة في تفاقم أزمات نفسية حادة. وفي تطور لافت، فتح مدعون تحقيقات بشأن احتمالات تأثير هذه الأنظمة على سلوكيات عنيفة.
تعكس هذه الدراسات تحديًا متزايدًا أمام شركات الذكاء الاصطناعي، يتمثل في تحقيق التوازن بين تقديم تجربة تفاعلية متقدمة وضمان سلامة المستخدمين. ومع تزايد الاعتماد على هذه التقنيات، تبدو الحاجة ملحّة لوضع معايير أكثر صرامة للحد من المخاطر النفسية والسلوكية المحتملة.







