قررت منصة ويكيبيديا بنسختها الإنجليزية تقييد استخدام أدوات الذكاء الاصطناعي التوليدي في كتابة المقالات أو إعادة صياغتها، بهدف حماية جودة المحتوى والالتزام بسياسات النشر الأساسية.
وأوضحت المنصة أن الاعتماد على هذه الأدوات قد يؤدي إلى انتهاك عدد من قواعدها الجوهرية؛ إذ يمكن للنماذج اللغوية إنتاج معلومات غير دقيقة أو غير مدعومة بالمصادر، حتى عند استخدامها لأغراض تحريرية بسيطة.
وتسمح السياسة الجديدة باستخدام النماذج اللغوية الكبيرة (LLMs) في نطاق ضيق، مثل تحسين صياغة النصوص التي يكتبها المحررون بأنفسهم، بشرط مراجعة المحتوى بدقة والتحقق من مطابقته المصادر، كما يُسمح باستخدامها في الترجمة، بشرط أن يكون المستخدم ملمًا باللغتين لرصد الأخطاء المحتملة.
وتحذر المنصة من أن هذه النماذج قد تغيّر المعنى الأصلي للنص أو تضيف معلومات غير موثّقة، مما يفرض تدقيقًا بشريًا إلزاميًا قبل النشر.
وواجهت ويكيبيديا خلال العامين الماضيين انتشارًا للمحتوى الضعيف الجودة المولّد بالذكاء الاصطناعي، كما اشتكى محررون من وجود أخطاء معلوماتية ومراجع وهمية في هذه المقالات، مما زاد عبء المراجعة البشرية، وأثار مخاوف بشأن مصداقية المنصة على المدى الطويل.
وفي حين تعتمد النسخة الإنجليزية نهجًا تقييديًا مع بعض الاستثناءات، اتخذت النسخة الإسبانية موقفًا أكثر تشددًا بحظر استخدام هذه الأدوات بنحو كامل دون استثناءات.
وأما النسخة العربية من ويكيبيديا، فلا توجد حتى الآن لها سياسة مُعلنة في هذا الصدد، لكنها كغيرها من النسخ، تلتزم بالقواعد الأساسية نفسها مثل ضرورة الاستشهاد بمصادر موثوقة، والالتزام بالحياد والدقة وغيرها من القواعد.
ومع ذلك، يظل رصد المحتوى المُنشأ بالذكاء الاصطناعي تحديًا تقنيًا؛ إذ لا توجد أدوات دقيقة بنسبة كاملة لاكتشافه، وقد يؤدي ذلك إلى مرور بعض النصوص دون اكتشاف.





