Follow ICT
شعار الموقع الاساسى
جايزة 160
جايزة 160

لماذا يبدو النقاش البشري حول الذكاء الاصطناعي لغة غير مفهومة؟

تكشف الأحاديث التي تدور في المنتديات والمناقشات الموسعة حول  الذكاء الاصطناعي عن وجود خلاف واسع في كيفية اعتقاد الأكاديميين والسياسيين وصناع التكنولوجيا بضرورة تنظيم الذكاء الاصطناعي، حيث يشعر البعض بالقلق بشأن “أمان الذكاء الاصطناعي” ، وهو مصطلح يصف إمكانية بناء جهاز كمبيوتر قوي للغاية يتمتع بقدرات لا يمكن تصورها ومؤثرة لحد كبير دون استيعاب حجم هذا التأثير، بينما ينادي آخرون بمزيد من “أخلاقيات الذكاء الاصطناعي” ، وتشمل بشكل محدد وصف البيانات المستخدمة لبناء نماذج الذكاء الاصناعي وشرح كيفية عملها بشكل أفضل.

وفي الأسبوع الماضي، قام سام ألتمان، الرئيس التنفيذي لشركة OpenAI ، بما يمكن أن نطلق عليه “سحر الحديث عن الذكاء الاصطناعي” وذلك في غرفة مليئة بالقيادات السياسية في العاصمة واشنطن، ثم أدلى بشهادته لنحو ثلاث ساعات حول المخاطر المحتملة للذكاء الاصطناعي في جلسة استماع بمجلس الشيوخ.

وبعد الجلسة، لخص موقفه من تنظيم الذكاء الاصطناعي ، مستخدمًا مصطلحات غير معروفة وغير مفهومة أيضا على نطاق واسع بين عامة الناس والمتخصصين، وكتب سام ألتمان على موقع تويتر: “أمان الذكاء الاصطناعي العام أمر مهم حقًا، ويجب تنظيم النماذج الرائدة”، بينما “الاستحواذ على القواعد التنظيمية سيء ، ولا ينبغي لنا العبث بالنماذج التي تقل عن الحد الأدنى أو مايطلق عليها “النماذج الحدودية”، فعن ماذا يتحدث وماذا يقصد بهذه المصطلحات.

سام التمان
سام التمان

يشار إلى “الذكاء العام الاصطناعي” كمفهوم، يتم استخدامه ليعني ذكاءً اصطناعيًا أكثر تقدمًا بشكل ملحوظ مما هو ممكن حاليًا ، وهو مفهوم يمكنه القيام بمعظم الأشياء بشكل أفضل أو أفضل من معظم البشر ، بما في ذلك تحسين نفسه.

“النماذج الحدودية” هي طريقة للتحدث عن أنظمة الذكاء الاصطناعي الأكثر تكلفة في الإنتاج والتي تحلل معظم البيانات، أما نماذج اللغات الكبيرة ، مثل GPT-4 من OpenAI ، هي نماذج رائدة مقارنة بنماذج الذكاء الاصطناعي الأصغر التي تؤدي مهامًا محددة مثل تحديد القطط في الصور.

ويتفق معظم الناس على ضرورة وجود قوانين تحكم الذكاء الاصطناعي مع تسارع وتيرة التنمية.

قال ماي تاي ، أستاذ علوم الكمبيوتر في جامعة فلوريدا ، “عندما ظهرت ChatGPT ، تطورت بطريقة لم نتخيلها أبدًا ، يمكن أن تسير بهذه السرعة”. “نخشى أننا نسير نحو نظام أكثر قوة لا نفهمه ونتوقع ما يمكن أن يفعله.،  “التعلم الآلي ، التعلم العميق ، خلال السنوات العشر الماضية أو نحو ذلك ، تطور بسرعة كبيرة.

أمان الذكاء الاصطناعي

لكن اللغة حول هذا النقاش تكشف عن معسكرين رئيسيين بين الأكاديميين والسياسيين وصناعة التكنولوجيا. يشعر البعض بالقلق أكثر بشأن ما يسمونه “أمان الذكاء الاصطناعي”. يشعر المعسكر الآخر بالقلق مما يسمونه “أخلاقيات الذكاء الاصطناعي”.

وعندما تحدث ألتمان إلى الكونجرس ، تجنب في الغالب المصطلحات ، لكن تغريدته أشارت إلى أنه قلق في الغالب بشأن أمان الذكاء الاصطناعي – وهو موقف يشاركه العديد من قادة الصناعة في شركات مثل OpenAI التي تديرها Altman و Google DeepMind والشركات الناشئة ذات رأس المال الجيد، حيث إنهم قلقون بشأن إمكانية بناء ذكاء اصطناعي غير ودي مع قوى لا يمكن تصورها.

ويعتقد هذا المعسكر أننا بحاجة إلى اهتمام عاجل من الحكومات لتنظيم التنمية ومنع نهاية غير مناسبة للإنسانية – وهو جهد مشابه لمنع انتشار الأسلحة النووية.

مصطفى سليمان
مصطفى سليمان

من جانبه قال مصطفى سليمان ، مؤسس شركة DeepMind والرئيس التنفيذي الحالي لشركة Inflection AI ، في تغريدة يوم الجمعة: “من الجيد أن نسمع الكثير من الأشخاص يبدأون في التعامل بجدية بشأن سلامة الذكاء الاصطناعي العام، فنحن بحاجة إلى أن نكون طموحين للغاية، لكن الكثير من النقاش في الكونجرس والبيت الأبيض حول التنظيم يتم من خلال عدسة أخلاقيات الذكاء الاصطناعي ، والتي تركز على الأضرار الحالية.

وأشار إلي أنه من هذا المنظور ، يجب على الحكومات فرض الشفافية حول كيفية قيام أنظمة الذكاء الاصطناعي بجمع البيانات واستخدامها ، وتقييد استخدامها في المجالات التي تخضع لقانون مكافحة التمييز مثل الإسكان أو التوظيف ، وتوضيح مدى قصور تقنية الذكاء الاصطناعي الحالية، حيث تضمن اقتراح قانون حقوق الذكاء الاصطناعي للبيت الأبيض في أواخر العام الماضي العديد من هذه المخاوف.

ونوه إلى أن شركة IBM مثلت هذا المعسكر في جلسة استماع بالكونجرس عبر مديرة الخصوصية كريستينا مونتجمري ، التي أخبرت المشرعين أن كل شركة تعمل على هذه التقنيات يجب أن يكون لديها نقطة اتصال “أخلاقيات الذكاء الاصطناعي”.

وقال مونتجمري للكونجرس: “يجب أن تكون هناك إرشادات واضحة حول الاستخدامات النهائية للذكاء الاصطناعي أو فئات النشاط المدعوم بالذكاء الاصطناعي والتي تكون بطبيعتها عالية المخاطر،ليس من المستغرب أن يكون الجدل الدائر حول الذكاء الاصطناعي قد طور لغته الخاصة. لقد بدأ كمجال أكاديمي تقني.

ويعتمد الكثير من البرامج التي تتم مناقشتها اليوم على ما يسمى بنماذج اللغة الكبيرة (LLMs) ، والتي تستخدم وحدات معالجة الرسوم (GPUs) للتنبؤ بالجمل أو الصور أو الموسيقى المحتملة إحصائيًا ، وهي عملية تسمى “الاستدلال”.

لكن المصطلحات الأخرى، خاصة من مؤيدي السلامة في الذكاء الاصطناعي ، ذات طبيعة ثقافية أكثر ، وغالبًا ما تشير إلى المراجع المشتركة.

مشبك ورق

على سبيل المثال ، قد يقول خبراء السلامة في الذكاء الاصطناعي إنهم قلقون بشأن التحول إلى مشبك ورق، ويشير هذا إلى تجربة فكرية شاعها الفيلسوف نيك بوستروم والتي تفترض أن الذكاء الاصطناعي الخارق – “ذكاء خارق” – يمكن أن يُعطى مهمة لصنع أكبر عدد ممكن من المشابك الورقية ، ومن المنطقي أن يقرر قتل البشر، وشعار OpenAI مستوحى من هذه الحكاية ، وقد صنعت الشركة مشابك ورقية على شكل شعارها.

مفهوم آخر في أمان الذكاء الاصطناعي هو “الإقلاع الصعب” أو “الإقلاع السريع” ، وهي عبارة تشير إلى أنه إذا نجح شخص ما في بناء الذكاء الاصطناعي العام ، فسيكون قد فات الأوان لإنقاذ البشرية.

يان ليكن
يان ليكن

من جانبه قال يان ليكن نائب رئيس وكبير علماء الذكاء الاصطناعي في شركة ميتا ، الذي يشك في ادعاءات الذكاء الاصطناعي العام ، أن أخلاقيات الذكاء الاصطناعي لها لغتها الخاصة أيضًا، حيث تنتج لغة تبدو وكأنها بشرية فقط ، وغالبًا ما يقارنها الناس بأخلاقيات الذكاء الاصطناعي بـ “الببغاوات العشوائية”.

التشبيه ، الذي صاغه إميلي بندر ، وتيمنيت جيبرو ، وأنجلينا ماكميلان ميجور ، ومارجريت ميتشل في ورقة بحثية كتبها أثناء وجود بعض المؤلفين في جوجل ، يؤكد أنه في حين أن نماذج الذكاء الاصطناعي المتطورة يمكن أن تنتج نصًا واقعيًا ظاهريًا ، فإن البرنامج لا يفهم المفاهيم الكامنة وراء اللغة – مثل الببغاء.

وكان أحد الموضوعات التي ضغط عليها مونتجمري من شركة IBM أثناء جلسة الاستماع هو “القابلية للتفسير” في نتائج الذكاء الاصطناعي، وهذا يعني أنه عندما لا يتمكن الباحثون والممارسون من الإشارة إلى الأعداد الدقيقة ومسارات العمليات التي تستخدمها نماذج الذكاء الاصطناعي الأكبر لاستخلاص نتائجها ، فقد يخفي ذلك بعض التحيزات المتأصلة.

وقال عدنان مسعود ، مهندس الذكاء الاصطناعي في UST-Global: “يجب أن تكون لديك قابلية للتفسير حول الخوارزمية”. “في السابق ، إذا نظرت إلى الخوارزميات الكلاسيكية ، ستخبرك ،” لماذا أتخذ هذا القرار؟ “الآن مع نموذج أكبر ، أصبحوا هذا النموذج الضخم ، إنهم صندوق أسود.”

حواجز الحماية

مصطلح آخر مهم هو “حواجز الحماية” ، والذي يشمل البرامج والسياسات التي تبنيها شركات التكنولوجيا الكبرى حاليًا حول نماذج الذكاء الاصطناعي لضمان عدم تسريبها للبيانات أو إنتاج محتوى مزعج ، والذي يُسمى غالبًا “الخروج عن القضبان”.

ويمكن أن يشير أيضًا إلى تطبيقات محددة تحمي برامج الذكاء الاصطناعي من الخروج عن الموضوع ، مثل منتج “NeMo Guardrails” من نيفيديا.

وقال كريستينا مونتجمري مديرة الخصوصية في IBM هذا الأسبوع: “يلعب مجلس أخلاقيات الذكاء الاصطناعي لدينا دورًا مهمًا في الإشراف على عمليات حوكمة الذكاء الاصطناعي الداخلية ، وإنشاء حواجز معقولة لضمان إدخال التكنولوجيا إلى العالم بطريقة مسؤولة وآمنة، وفي بعض الأحيان ، يمكن أن يكون لهذه المصطلحات معانٍ متعددة ، كما في حالة “السلوك الناشئ”.

وزعمت ورقة بحثية حديثة من مايكروسوفت بعنوان “شرارات الذكاء الاصطناعي العام” أنها حددت العديد من “السلوكيات الناشئة” في GPT-4 الخاص بـ OpenAI ، مثل القدرة على رسم الحيوانات باستخدام لغة برمجة للرسوم البيانية.

ولكن يمكنه أيضًا وصف ما يحدث عند إجراء تغييرات بسيطة على نطاق واسع جدًا – مثل الأنماط التي تصنعها الطيور عند الطيران في مجموعات ، أو ، في حالة الذكاء الاصطناعي ، ما يحدث عندما يتم استخدام ChatGPT والمنتجات المماثلة من قبل ملايين الأشخاص ، مثل كرسائل غير مرغوب فيها أو معلومات مضللة على نطاق واسع.