في السنوات الأخيرة؛ تسارعت وتيرة لجوء المؤسسات إلى تقنيّات الذكاء الاصطناعي بهدف تحليل البيانات الضخمة واتخاذ القرارات بسرعة ودقة. إلّا أن هذه النماذج المتقدمة غالباً ما تنتج مخرجات “صندوق أسود” يصعب فهمها أو تبريرها.
قرارات تتخذ، مصائر تحدد، والسبب؟ غير واضح. هنا تبرز الحاجة الملحة إلى أن نفهم لماذا قالت الخوارزمية ما قالت، وأن نفسر كيف وصلت إلى ما توصلت إليه، ليس فقط لبناء الثقة مع متّخذي القرار والجمهور؛ بل أيضاً للامتثال لمتطلبات تنظيميّة متزايدة. فمثلاً، في القطاع المالي يلزم المقرضين بتوضيح أسباب رفض أي طلب قرض؛ ولا يكفي القول إن “النظام تنبّأ بتعثّر السداد” دون شرح العوامل الّتي بُني عليها هذا التنبّؤ.
إنّ قدرة المؤسسات على تفسير نتائج نماذجها أصبحت جزءاً لا يتجزّأ من الاستخدام المسؤول لهذه التقنيات، ومطلباً قانونياً في بعض المجالات عالية المخاطر مثل الرعاية الصحية والخدمات المالية والعدالة الجنائية.
لذا برز مفهوم الذكاء الاصطناعي القابل للتفسير (Explainable AI – XAI) كعنصر محوري يمكن المؤسسات من جعل قرارات أنظمتها الذكية مفهومة. ويراد بالذكاء الاصطناعيّ القابل للتفسير تطوير أساليب تجعل قرارات الأنظمة الذكيّة واضحة للبشر.
وعلى خلاف النهج التقليدي الذي تبقى فيه خوارزميات التعلم الآلي غير شفافة؛ يهدف (XAI) إلى كشف العوامل المؤثّرة في التنبؤات وتوضيح آليّة اتّخاذ القرارات.
علاوة على ذلك، يسهم الذكاء الاصطناعي القابل للتفسير في جعل مخرجات النماذج أكثر موثوقية وقابلية للتبني. إذ حين يفهم المستخدمون والعاملون في المؤسسة كيفية توصّل النظام إلى نتيجة معينة؛ يتعزز لديهم الشعور بالثقة، ويميلون أكثر إلى قبول القرار المستند إلى الذكاء الاصطناعي.
وقد أشارت الأبحاث الحديثة إلى أنّ المؤسّسات الّتي تعتمد الشرح والتفسير في أنظمتها تكسب ميزة تنافسية عبر بناء جسور الثقة مع جمهورها.
وتظهر الأمثلة العملية أثر هذه المنهجية بوضوح. ففي أحد البنوك الأوروبية الكبرى؛ أدى اعتماد نماذج تفسيرية لتوضيح أسباب رفض طلبات القروض إلى خفض النزاعات حول القرارات بنسبة 30%، إذ شعر العملاء بمزيد من التفهّم لقرارات النظام، حين قدّمت لهم تفسيرات مخصّصة لكلّ حالة. وبالمثل، في مجال إدارة الموارد البشرية، وُجد أن توفير شرح واضح للمتقدمين حول أسباب عدم قبولهم لوظيفة عبر نظام ذكاء اصطناعيّ يزيد تقبلهم للقرار بنسبة 42%؛ ممّا يشير إلى دور الشفافية في تحسين الشعور بالعدالة ورضا الأفراد.
ومن واقع التجربة، ساهمت مؤخراً بورقة بحثيّة لاقت استحساناً وتقييماً إيجابياً من قبل محكمين ومراجعين دوليين، ومن المزمع أن أعرض نتائجها في المؤتمر الدولي العاشر للهندسة الحاسوبية والاتّصالات (ICCCE) المقرر انعقاده في ماليزيا نهاية الشهر الجاري. حيث قمت بتوظيف إحدى أدوات الذكاء الاصطناعي القابل للتفسير المعروفة اختصاراً باسم (SHAP)، وذلك لتحليل بيانات الأداء الوظيفي والتنبؤ بها.
وقد مكّنتني هذه الأداة من تقديم قيمة بحثية مضافة، من خلال تفكيك التنبؤات المعقدة إلى مكونات مفهومة ومرئية تُظهر بدقّة العوامل التي أثرت في النتائج، وقياس الأثر النسبي لكل منها.
هذا الأسلوب لم يكتف بتحسين دقة التنبؤ، بل يتيح أيضاً لمتخذي القرار فهماً أوضح للسلوك المؤسسي المرتبط بالأداء؛ مما يجعل عمليّة اتخاذ القرار أكثر شفافية وارتكازاً على تفسير علمي قابل للتطبيق
إن الاتجاه العام واضح، شرح قرارات الذكاء الاصطناعي لم يعد خياراً إضافياً؛ بل غَدَا ضرورة استراتيجية وحاجة أخلاقية لأي مؤسسة تطمح للنجاح والاستدامة في العصر الرقمي.
وتشير التوقعات إلى أنّه بحلول عام 2026 ستتبنى نسبة كبيرة من المؤسسات سياسة التفسير الافتراضي (Explainability by default) في أنظمتها.
فالمؤسسات التي تتفوّق في دمج الشفافية والتفسير في حلولها الذكية لن تكتفي بالالتزام بالضوابط؛ بل ستكسب أيضاً ثقة جمهورها وميزة تنافسية ملموسة في اقتصاد رقمي تعد فيه الثقة حجر الأساس.
د. توفيق السباعي
كاتب وباحث في تحليل الأعمال