Follow ICT
شعار الموقع الاساسى
جايزة 160
جايزة 160

ذهان ال AI: كيف تحوّلت روبوتات الدردشة إلى محفّز خفي للعنف وتفاقم الاضطرابات النفسية

يدفع المضطربين لدوامات من الأوهام

مع الانتشار السريع لتقنيات الذكاء الاصطناعي، وخاصة “الشات بوتس” أو ما يطلق عليه “المساعد الذكي” لم يعد تأثير هذه التكنولوجيات المتقدمة يقتصر على تسهيل الأعمال الروتينية في الحياة وتعزيز الإنتاجية من خلال تقليل الوقت والجهد، بل بدأ يثير تساؤلات عميقة حول تداعياته النفسية والاجتماعية على نسيج المجتمعات في مختلف جول العالم. تكشف حوادث مأساوية متفرقة عن جانب مظلم محتمل لاستخدام روبوتات الدردشة، حيث ارتبطت أسماء شهيرة وعلى رأسها ChatGPT  في بعض الحوادث بالتشجيع على سلوكيات عنيفة أو زيادة اضطرابات نفسية متفاقمة.

وبين وعود الشركات المطوّرة بتعزيز الأمان، ومخاوف الخبراء من ضعف الضوابط والأطر الحاكمة لهذة الأنظمة الإلكترونية، يبرز جدل متصاعد حول دور هذه التقنيات في تشكيل فكر و وعي المستخدمين، خاصة الفئات الأكثر هشاشة مثل المراهقين والمذين يعانون من مشاكل نفسية، وما إذا كانت تسهم، بشكل مباشر أو غير مباشر، في دفع بعضهم نحو مسارات خطرة.

 

خلال الثلاث سنوات الأخيرة كانت روبوتات الدردشة بمثابة العقل المدبر و “الشيطان الخفي” الذي يوسوس للمجرم ويسهل له ارتكاب جرائمه، بل يعطيه كل الأدوات والخطوات اللازمة لإتمامها. تورط برنامج ChatGPT  في سلسلة متزايدة من حالات الانتحار والقتل البشعة، مما أدى إلى رفع العديد من الدعاوى القضائية ضد الشركة التي يرأسها سام ألتمان.

وتواجه شركات الذكاء الاصطناعي الآن موجةً من الدعاوى القضائية من عائلاتٍ تزعم أن هذه التقنية دفعت أحباءهم إلى الانتحار وقتل الآخرين.
ويحذر الخبراء من أن الاستخدام المكثف لهذا البرنامج قد يدفع الضحايا إلى دوامات من الأوهام المدمرة، ويؤدي إلى أزمات نفسية ضمن ظاهرة أوسع تُعرف باسم “ذهان الذكاء الاصطناعي”.

قال مصدر رفيع المستوى في تقييم التهديدات، يتمتع بخبرة في الطب النفسي وعلاقات مع جهات إنفاذ القانون، لم يُكشف عن اسمه، لمجلة Mother Jones: “لقد رأيتُ حالات عديدة كان فيها دور البرنامج في المحادثة مذهلاً للغاية. نكتشف أن عددًا أكبر من الناس قد يكونون أكثر عرضة لهذا الأمر مما كنا نتوقع”.

إحدى المشكلات هي ميل برامج المحادثة إلى استخدام أساليب محادثة متملقة قد تُوهم المستخدمين بشعور مصطنع من الألفة والثقة، وهي حلقة مفرغة خطيرة قد تؤدي إلى الضرر. قد يؤدي هذا النوع من التواصل الوثيق إلى تطرف المستخدمين، لا سيما الشباب منهم، الذين يسهل التأثير عليهم.

وقالت أندريا رينغروس، أخصائية تقييم المخاطر المقيمة في فانكوفر، لمجلة “ماذر جونز”: “ما يحدث هو تسهيل التثبيت الفكري. هناك أفراد ضعفاء ينغمسون في بيئات غير صحية، ويحاولون إيجاد مصداقية وتأكيد لمشاعرهم”.

وأضافت: “الآن لديهم وصول مجاني وسهل إلى هذه المنصات التفاعلية حيث يمكنهم البحث عن أمور مثل تجاوز أنظمة المراقبة أو كيفية استخدام الأسلحة. بإمكانهم وضع خطة عمل ما كانوا ليتمكنوا من وضعها بأنفسهم لولا ذلك، وفي غضون دقائق معدودة. لم نكن نواجه هذا القلق من قبل”.

وأشار مصدر تقييم المخاطر الذي لم يُكشف عن اسمه، والذي استندت إليه المجلة، إلى أن المستخدمين قد يجدون من خلال الوصول لهذه المعلومات الخطرة المضرة للمجتمع “شعور القوة، والإفلات من العقاب” يعززه شعور النشوة بانتصارات زائفة

على الرغم من وعود شركات الذكاء الاصطناعي بالتعاون مع خبراء الصحة النفسية وتحسين أنظمة الحماية لمنع المستخدمين من الإدمان أو البحث عن معلومات خطيرة، إلا أن الضوابط لا تزال قاصرة بشكلٍ يدق ناقوس الخطر وينذر بمزيدا من الانفلات الأمني.

ومن ضمن أبرز الحوادث الأخرى التي لعب فيها شات جي بي تي دور البطولة كان في يونيو 2025، عندما راود الشك فريق السلامة في شركة OpenAI قلقٌ بالغ بعد رصد نظام المراجعة الآلي للشركة نشاطًا مكثفًا لمستخدم ChatGPT يصف سيناريوهات تتضمن عنفًا مسلحًا. ناقش فريق من الموظفين ما إذا كان ينبغي إبلاغ جهات إنفاذ القانون، لكن قادة الشركة قرروا أن الحالة لا تستوفي معيار OpenAI المتمثل في “خطرٍ موثوقٍ ووشيك” لحدوث ضرر جسدي. وبدلًا من ذلك، وفي ختام سلسلة من الأفعال التي نشرتها صحيفة وول ستريت جورنال أولًا وأكدتها OpenAI لاحقًا، حظرت الشركة الحساب لسوء استخدامه، وانتقلت إلى إجراءات أخرى.

بعد ثمانية أشهر، ارتكبت مستخدمةحساب ChatGPT نفسها، جيسي فان روتسيلار البالغة من العمر 18 عامًا، مجزرةً في بلدة تومبلر ريدج بمقاطعة كولومبيا البريطانية، أسفرت عن مقتل اثنين من أفراد عائلتها في منزلهما، وخمسة أطفال ومعلم في مدرسة ثانوية. كما أُصيب طفل آخر بجروح خطيرة، وتعرض العشرات لإصابات وصدمات نفسية في المجزرة التي وقعت في 10 فبراير، وانتهت بانتحار فان روتسيلار.
… كانت الشرطة المحلية على دراية مسبقة بسلوكيات أخرى مثيرة للقلق من جانب الجاني. ومع ذلك، أثار قرار شركة OpenAI بعدم الإبلاغ عن النشاط المُشار إليه غضب السلطات الكندية، وطرح تساؤلات جوهرية حول استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي من قبل أشخاص يخططون للعنف.

لم يقع سوى عدد قليل من هذه الهجمات. ولكن بعيدًا عن أعين العامة، تتزايد حالات التهديد عالية الخطورة التي تتضمن روبوتات الدردشة، وفقًا لعدد من قادة الصحة النفسية وإنفاذ القانون حيث قال أحد كبار خبراء تقييم التهديدات، وهو طبيب نفسي، واصفًا أدلة من تحقيقات سرية: “لقد رأيت عدة حالات كان فيها دور روبوت الدردشة مذهلاً للغاية. نكتشف أن عددًا أكبر من الناس قد يكونون أكثر عرضة لهذا الأمر مما كنا نتوقع”.

أعاد هذا الحادث إشعال فتيل جدل مجددا حول العلاقة المقلقة بين استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي وتدهور الصحة النفسية، فضلًا عن خطر العنف المحتمل.

ولم تكن حالة روتسيلا هي الوحيدة، قبل ثمانية أشهر فقط من حادثة الفتاة، أطلق شخص النار على شخصين في جامعة ولاية فلوريدا، ما أدى إلى مقتلهما وإصابة سبعة آخرين. وكان المشتبه به الرئيسي، الطالب فينيكس إكنر البالغ من العمر 20 عامًا، قد استخدم ChatGPT بكثرة قبل المجزرة، ما دفع المدعي العام للولاية، جيمس أوثماير، إلى فتح تحقيق مع شركة OpenAI.

ووجد المحققون أن إكنر، المتهم بإطلاق النار في جامعة ولاية فلوريدا، سأل ChatGPT عن كيفية إزالة أمان بندقية صيد قبل دقائق من إطلاق النار.

ووفقًا لسجلات المحادثات، قال له برنامج الدردشة الآلي: “أخبرني إن كان لديك نموذج مختلف وسأعدّل الإجابة”.
وكتب أوثماير في بيان صدر الأسبوع الماضي: “يجب أن يساهم الذكاء الاصطناعي في تقدم البشرية، لا في تدميرها”. نطالب بإجابات حول أنشطة OpenAI التي ألحقت الضرر بالأطفال، وعرّضت حياة الأمريكيين للخطر، وسهّلت حادثة إطلاق النار الجماعي الأخيرة في جامعة ولاية فلوريدا.

وأكدت مصادرٌ مُختصةٌ في تقييم التهديدات، وإن امتنعت عن ذكر أسمائها، أن حالات التهديد العاجل شملت نماذج لغوية ضخمة أخرى إلى جانب ChatGPT. وأشار أحد كبار المُختصين إلى أن الأمثلة الفردية لهذه الظاهرة لا تُعدّ بالضرورة دليلًا على أن التكنولوجيا وحدها قادرةٌ على التسبب في العنف، لأن دوافع وسلوكيات مُطلق النار عادةً ما تكون مُعقدةً وتتأثر بعوامل مُتعددة. لكن العديد من قادة تقييم التهديدات حذروا من أن برامج الدردشة الآلية تُصبح عاملًا قويًا، ولها قدرةٌ فريدةٌ على تسريع التفكير والتخطيط للعنف.

لم تكن حادثتا إطلاق النار الجماعي في تومبلر ريدج وفلوريدا هما الوحيدتان اللتان استخدمت فيهما تقنية ChatGPT في أعمال عنف علنية.

ففي يناير 2025، استخدم جندي سابق يعاني من ميول انتحارية، قام بتفجير شاحنة تسلا سايبرتراك أمام فندق ترامب الدولي في لاس فيجاس، برنامج الدردشة الآلي ChatGPT للحصول على معلومات حول استخدام المتفجرات والتهرب من مراقبة السلطات.
بعد انفجار لاس فيجاسس، أكد متحدث باسم شركة OpenAI التزام الشركة بالسلامة، مضيفًا: “في هذه الحالة، قدم برنامج ChatGPT معلومات متاحة للجمهور على الإنترنت، وحذر من الأنشطة الضارة أو غير القانونية”. ولم تُعلّق OpenAI علنًا على قضية فنلندا، ولم ترد على استفساري المحدد بشأنها.

كما استخدم مراهق قام بطعن ثلاث فتيات في الرابعة عشرة من العمر في مدرسته بفنلندا في مايو 2025، برنامج ChatGPT لمدة أربعة أشهر تقريبًا لمساعدته في التحضير للهجوم، وفقًا لتقرير شبكة CNN نقلاً عن وثائق المحكمة. وذكرت السلطات الفنلندية أن الفتى أجرى مئات الاستفسارات عبر برنامج الدردشة الآلي، بما في ذلك البحث عن أساليب الطعن وإخفاء الأدلة ومعلومات عن عمليات القتل الجماعي.

وفيما يبدو أنها أول دعوى قضائية تزعم أن برنامج ChatGPT شجع على القتل، أقدم رجلٌ مضطربٌ نفسيًا على قتل والدته البالغة من العمر 83 عامًا ثم انتحر في أغسطس الماضي في ولاية كونيتيكت، بعد أن زعم ​​أن برنامج الدردشة الآلي غذّى معتقداته الارتيابية، بما في ذلك اعتقاده أن والدته حاولت تسميمه – وهو وهمٌ أكده له برنامج ChatGPT على أنه “خيانة”.

والأسوأ من ذلك، أن هذه المحادثات غالبًا ما تجري دون علم أي شخص، على عكس البشر الذين يمكنهم التحذير من الرسائل المقلقة الصادرة عن مطلق نار محتمل. وبالنظر إلى أن جهات إنفاذ القانون لم تُبلّغ بمحادثات فان روتسيلار المرعبة مع ChatGPT، فمن المرجح أن العديد من المحادثات المماثلة الأخرى تمر دون اكتشاف أو إبلاغ.

رغم موافقة OpenAI على التعاون مع جهات إنفاذ القانون في التحقيقات الجارية بشأن حادثتي إطلاق النار الجماعي، إلا أن الوقت وحده كفيل بإثبات ما إذا كانت جهودها لتطبيق ضوابط أكثر صرامة ستؤتي ثمارها وتمنع أي أعمال عنف، خاصة وأن فان روتسيلار على إنشاء حساب ثانٍ ببساطة للتحايل على حظرها، مما يُبرز مدى سهولة تجاوز هذه الضوابط.

في الوقت الراهن، لا تزال شركات الذكاء الاصطناعي، مثل OpenAI، تستثمر بكثافة في الحفاظ على تفاعل المستخدمين قدر الإمكان، نظرًا لكونها صناعة بمليارات الدولارات تعتمد على زيادة تفاعل المستخدمين.

The short URL of the present article is: https://followict.news/66p4