استغلت الصين نموذج “لاما” Lama المتاح للجمهور الذي ابتكرته شركة “ميتا”، في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة، وهو ما اعتبرته ميتا مخالفًا لسياستها.
وفي ورقة بحثية نشرت في يونيو الماضي، قدم ستة باحثين صينيين من ثلاث مؤسسات، منهم مؤسستان تابعتان لـ”أكاديمية العلوم العسكرية البحثية” الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” كقاعدة لما يسمونه “تشات بي.آي.تي”.
واستخدم الباحثون نموذجاً سابقاً للغة من “لاما 13بي” تابعاً لشركة “ميتا” ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تركز على الأغراض العسكرية، لجمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.
وذكرت الدراسة أن برنامج “تشات بي.آي.تي” تم تنقيحه وتحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري”، إذ اتضح أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي تبلغ قدرتها نحو 90 % تقريباً، مثل برنامج Chat GPT-4 لشركة OpenAI.
ومن جانبها، قالت مديرة السياسات العامة في “ميتا”، مولي مونتجومري: “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به ويناقض سياستنا للاستخدام المقبول”.
وأتاحت “ميتا” الاستخدام المفتوح للكثير من نماذجها للذكاء الاصطناعي ومنها “لاما”، إذ تفرض قيوداً على استخدامها منها حظر استخدام النماذج في “الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس” وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأمريكية، فضلاً عن تطوير الأسلحة والمحتوى الذي يراد به “التحريض على العنف والترويج له”.
لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.