OpenAI تدعم مشروع قانون يعفي شركات الذكاء الاصطناعي من المسؤولية عن الأضرار الجسيمة
حتى لحالات الوفاة والانتحار
أعلنت شركة OpenAI دعمها لمشروع قانون مطروح في ولاية إلينوي يهدف إلى تقييد مسؤولية مختبرات الذكاء الاصطناعي عن الأضرار الجسيمة الناتجة عن نماذجها، بما في ذلك حالات قد تؤدي إلى وفاة أو إصابة 100 شخص أو أكثر، أو خسائر مادية تتجاوز مليار دولار. ويشترط المشروع عدم تعمد الشركة أو ارتكابها إهمالاً جسيماً، إلى جانب التزامها بنشر تقارير السلامة والشفافية، حتى تستفيد من الحماية القانونية.
ويمثل هذا الموقف تحولاً ملحوظاً في نهج OpenAI التشريعي، إذ كانت الشركة تتبنى سابقاً موقفاً دفاعياً يميل إلى معارضة القوانين التي قد تفرض عليها مسؤولية مباشرة عن أضرار تقنياتها. ويأتي ذلك في سياق جدل أوسع داخل قطاع الذكاء الاصطناعي حول حدود المسؤولية القانونية في ظل تطور النماذج التوليدية المتقدمة.
تفاصيل المشروع وسياق الجدل التنظيمي
يعرّف مشروع القانون النماذج المشمولة بالحماية بأنها تلك التي يتم تدريبها بتكلفة حوسبة تتجاوز 100 مليون دولار، وهو معيار ينطبق على كبرى شركات القطاع مثل Google وMeta وAnthropic وxAI إلى جانب OpenAI. كما يحدد “الأضرار الجسيمة” لتشمل، من بين أمور أخرى، استخدام الذكاء الاصطناعي في إنتاج أسلحة كيميائية أو بيولوجية أو إشعاعية أو نووية، أو التسبب في نتائج كانت ستُعد جرائم لو ارتكبها إنسان.
وبحسب مسودة القانون، فإن الشركات قد لا تُحاسب قانونياً على هذه الأضرار إذا لم يكن السلوك متعمداً أو ناتجاً عن إهمال جسيم، بشرط التزامها بإجراءات الإفصاح والشفافية. ويأتي هذا المقترح في وقت لا تزال فيه الولايات المتحدة تفتقر إلى إطار فيدرالي واضح يحدد مسؤولية مطوري نماذج الذكاء الاصطناعي.
كما أشار خبراء سياسات في مجلة WIRED إلى أن هذا المشروع يُعد أكثر صرامة من مبادرات سابقة دعمتها OpenAI، ما يجعله نقطة اختبار مهمة للتوازن بين الابتكار والتنظيم.
مواقف داعمة وتحفظات على المشروع
قالت المتحدثة باسم OpenAI، جيمي راديس، إن الشركة تدعم هذا النهج لأنه يركز على تقليل مخاطر الأضرار الجسيمة مع الحفاظ على إتاحة التقنية للأفراد والشركات، مشيرة إلى أنه قد يسهم أيضاً في تقليل تضارب القوانين بين الولايات الأمريكية ودفع نحو معايير وطنية أكثر اتساقاً.
وخلال جلسات الاستماع، أكدت ممثلة من فريق الشؤون العالمية في OpenAI دعم الشركة لإطار تنظيمي فيدرالي موحد، محذرة من أن تعدد قوانين الولايات قد يخلق تعقيدات تنظيمية دون تحسينات ملموسة في السلامة، وهو موقف ينسجم مع توجهات أوسع داخل وادي السيليكون.
في المقابل، انتقد بعض خبراء السياسات هذا التوجه، معتبرين أن تقليل المسؤولية القانونية عن شركات الذكاء الاصطناعي الكبرى قد يضعف المساءلة. وأشار مدير السياسات في مشروع الذكاء الاصطناعي الآمن إلى أن احتمالات تمرير القانون قد تكون محدودة، مستنداً إلى الرأي العام في ولاية إلينوي الذي يُظهر رفضاً واسعاً لفكرة إعفاء شركات الذكاء الاصطناعي من المسؤولية.







