Follow ICT
شعار الموقع الاساسى
جايزة 160
جايزة 160

الإعلان لا يتضمن آليات تنفيذ.. عمالقة التكنولوجيا يتعهدون بتطوير مسؤول للذكاء الاصطناعي

وافقت شركات التكنولوجيا الأمريكية الرائدة بما في ذلك OpenAI وجوجل ومايكروسوفت ، على مجموعة من الضمانات الطوعية للتخفيف من مخاطر الذكاء الاصطناعي ، وهي خطوة مبكرة قبل المزيد من اللوائح الرسمية من جانب المشرعين في جميع أنحاء العالم .

وقال البيت الأبيض إنه حصل على التزامات “طوعية” من 7 شركات رائدة في مجال الذكاء الاصطناعي “للمساعدة في التحرك نحو تطوير آمن وشفاف لتكنولوجيا الذكاء الاصطناعي، بعد انضم ممثلون عن الشركات السبع – أمازون ، وأنثروبيك ، وجوجل ، وإنفليكشن إيه آي ، وميتا ، ومايكروسوفت ، وأوبن إيه آي – بالرئيس جو بايدن في البيت الأبيض ، بما في ذلك رئيس مايكروسوفت براد سميث ، ومدير الشؤون العالمية لشركة ميتا نيك كليج ، والرئيس التنفيذي لشركة إنفليكشن إيه مصطفى سليمان.

وتعهدت الشركات بمشاركة المزيد من المعلومات فيما بينها وبين الحكومات والباحثين حول كيفية إدارتهم لمخاطر الذكاء الاصطناعي، واستثمار المزيد من الأموال في الأمن السيبراني واختبار أنظمة الذكاء الاصطناعي الخاصة بهم من خلال طرف ثالث بمجرد إصدارها للسماح لهم بالعثور على أي مشكلات وإصلاحها على الفور .

التزمت الشركات أيضًا بتطوير أدوات “قوية” – مثل آلية “العلامة المائية” – لإعلام المستخدمين عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي ولإعطاء الأولوية للبحث حول المخاطر المجتمعية التي يشكلها الذكاء الاصطناعي مثل تسهيل التحيز ، وإذكاء التمييز وتقويض الخصوصية.

وقال البيت الأبيض إن الالتزامات ، التي ستتبعها الشركات “على الفور” ، تؤكد ثلاثة مبادئ قال إنها “أساسية” لمستقبل الذكاء الاصطناعي: الأمن والسلامة والثقة.

وقال البيت الأبيض إن الشركتين اتفقتا على التعهد بالالتزامات “على الفور”.

وكان إعلان البيت الأبيض موضوعًا أكثر من كونه مضمونًا واحتوى على القليل من التفاصيل الملموسة عما يتوقع أن تفعله الشركات بالفعل، حيث اختار بعض الموقعين توضيح التزامهم أو إضافة التزامات إضافية من اختيارهم ، مثل مايكروسوفت ، التي تقول إنها ستدعم تطوير سجل وطني لأنظمة الذكاء الاصطناعي عالية المخاطر.

ومن غير الواضح كيف سيحاسب البيت الأبيض الشركات لأن المخطط طوعي والإعلان لا يتضمن آلية للتنفيذ، كما أنه ليس من الواضح ما إذا كانت هذه هي الشركات الوحيدة التي اتصل بها البيت الأبيض – فمن المحتمل أن يكون اللاعبون الغائبون قد رفضوا المشاركة – أو ما إذا كان سيتم الترحيب بمزيد من الشركات للانضمام في وقت لاحق.

على الرغم من أن البيت الأبيض قال إن الالتزامات الطوعية “تمثل خطوة حاسمة نحو تطوير الذكاء الاصطناعي المسؤول” ، إلا أنه أقر بأنها نقطة البداية الأولى لتنظيم الصناعة ولا تلغي الحاجة إلى تشريعات مركزة.

و قال البيت الأبيض: “هناك الكثير من العمل الجاري عندما يتعلق الأمر بالذكاء الاصطناعي. ويعمل حاليا على تطوير أمرًا تنفيذيًا وتسعى إلى تشريع من الحزبين لتنظيم الذكاء الاصطناعي ، على الرغم من أنها لم تقدم تفاصيل حول ما قد يشمله هذا التشريع أو أي إشارة إلى متى قد تهبط بالفعل.

وأعلن البيت الأبيض مرارًا وتكرارًا إن تنظيم الذكاء الاصطناعي يمثل أولوية رئيسية لبايدن ويأتي في الوقت الذي يسعى فيه المشرعون إلى تشكيل إطار عمل متماسك لتوجيه التكنولوجيا سريعة الحركة.

في حين أن تطوير قواعد أكثر صرامة لكبح جماح التكنولوجيا كان نقاشًا أساسيًا بين المشرعين لسنوات ، فإن التطورات الأخيرة في الذكاء الاصطناعي التوليدي – تقنية قادرة على إنشاء محتوى مثل الصور والموسيقى والكتابة والبيانات – واستيعابها العام السريع بعد إصدار أدوات مثل ChatGPT من OpenAI العام الماضي أضافت إحساسًا بالإلحاح لهذه المشكلة.

و تتناقض وتيرة إقرار التشريعات البناءة مع التحرك السريع للتطور التكنولوجي وغياب إطار عمل متماسك للعمل تحت إشراف قادة التكنولوجيا أنفسهم ، فقد اتخذوا أنفسهم لمطالبة الحكومة بالتنظيم بالإضافة إلى تقديم التزاماتهم الخاصة لتطوير التكنولوجيا بأمان ومسؤولية.

ويثير الفراغ ، الذي يتم ملؤه إلى حد كبير من قبل أكبر الجهات الفاعلة في الصناعة ، مخاوف من أن أولئك الذين لديهم حصة في التكنولوجيا هم الذين يعملون كأضواء إرشادية في المجال الناشئ.

وفقا للمحللين فإن ثمة مخاوف من أن الذكاء الاصطناعي يمكن أن يحل محل وظائف الأشخاص بسرعة، بالإضافة إلى مخاوف من أن برامج الدردشة مثل “تشات جي بي تي” و”بارد” يمكن أن تكون غير دقيقة وتؤدي إلى نشر معلومات مضللة.

وهناك أيضا مخاوف من أن الذكاء الاصطناعي التوليدي قد ينتهك قانون حقوق النشر. واستنساخ الصوت يمكن أن يؤدي إلى تفاقم الاحتيال. إذ يمكن أن تنشر مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي أخبارا كاذبة.

وعلى الرغم من ذلك، رد المدافعون مثل بيل جيتس على الدعوات إلى “إيقاف” الذكاء الاصطناعي قائلين إن مثل هذه الخطوة لن “تحل التحديات” في المستقبل، لافتا إلى إنه سيكون من الأفضل التركيز على أفضل السبل لاستخدام التطورات في الذكاء الاصطناعي.

ويعتقد آخرون أن هناك خطرا يتمثل في الإفراط في التنظيم، الأمر الذي من شأنه أن يمنح ميزة إستراتيجية لشركات التكنولوجيا في الصين.

وسبق أن وضعت الحكومة الصينية قائمة بالقواعد التي تحكم عمل تقنيات الذكاء الاصطناعي، وستدخل حيز التطبيق مع تعديلات في 15 أغسطس المقبل، ومن أبرز هذه القواعد الموضوعة مسودتها في أبريل، أن يجري موفّرو الذكاء الاصطناعي مراجعات أمنية، وتسجيل خوارزمياتهم لدى الحكومة.