Follow ICT
شعار الموقع الاساسى
جايزة 160
جايزة 160

الرئيس التنفيذي لـ NVIDIA: اعتماد شركة DeepSeek على رقائق “هواوي” له نتائج كارثية على أمريكا

قال جينسن هوانج، الرئيس التنفيذي لشركة NVIDIA، خلال ظهوره في بودكاست حديث، بأن اعتماد شركة DeepSeek الصينية على رقائق من هواوي لتحسين نماذجها المستقبلية قد يشكّل “نتيجة كارثية” بالنسبة للولايات المتحدة.

وأوضح هوانج، خلال مشاركته في بودكاست “Dwarkesh”، أن تطوير نماذج الذكاء الاصطناعي وفق بنية تقنية مختلفة تمامًا عن المنظومة الأمريكية، إلى جانب انتشار هذه التقنيات عالميًا بمعايير صينية، قد يمنح بكين تفوقًا استراتيجيًا على واشنطن في هذا المجال.

وجاءت هذه التصريحات قبيل الإطلاق المرتقب لنموذج DeepSeek V4، المتوقع لاحقًا هذا الشهر. وكانت تقارير إعلامية قد أشارت إلى احتمال تشغيل النموذج على معالج Ascend 950PR من هواوي، في حين ذكرت تقارير أخرى أنه ربما تم تدريبه باستخدام رقائق Blackwell، ما قد يثير تساؤلات حول الالتزام بقيود التصدير الأمريكية.

يُذكر أن نموذج DeepSeek V3، الذي طُرح أواخر عام 2024، تم تدريبه باستخدام 2048 وحدة معالجة رسومية من نوع Nvidia H800 المبنية على معمارية Hopper، وهي رقائق كانت قد صُممت خصيصًا للسوق الصينية قبل أن تُمنع من التصدير في 2023. وفي وقت لاحق، أعلنت إنفيديا استئناف إنتاج شريحة H200 الأكثر تطورًا لتلبية الطلب في السوق الصينية بعد تخفيف بعض القيود.

ورغم دعوات هوانج المتكررة لتعزيز التعاون بين الولايات المتحدة والصين في مجال الذكاء الاصطناعي، يتبنى مشرعون أمريكيون موقفًا أكثر تشددًا، حيث دعوا إلى فرض قيود إضافية قد تشمل إدراج شركات مثل DeepSeek وMoonshot AI وMiniMax ضمن قائمة الكيانات الخاضعة لضوابط التصدير.

وأشار هوانج إلى أن تفوق الصين المحتمل لا يعتمد فقط على جودة الرقائق، بل أيضًا على عوامل أخرى مثل وفرة الطاقة وارتفاع عدد الباحثين، موضحًا أن نحو 50% من خبراء الذكاء الاصطناعي عالميًا يتواجدون في الصين. وأضاف أن هذه العوامل تمكّنها من تطوير خوارزميات أكثر كفاءة لتعويض أي نقص في القدرات الحاسوبية.

كما لفت إلى أن ابتكارات هندسية مثل “معمارية خليط الخبراء” (MoE)، التي اعتمدتها DeepSeek، تمثل مثالًا على الابداع في تصميم الخوارزميات، مما يعزز الأداء رغم القيود التقنية. وأكد أن الذكاء الاصطناعي يعتمد بشكل أساسي على الحوسبة المتوازية، ما يتيح تعويض نقص الرقائق عبر استخدام أعداد أكبر من المعالجات، خاصة في ظل انخفاض تكلفة الطاقة.

في مجال الذكاء الاصطناعي، يشير مصطلح Mixture of Experts إلى نوع متقدم من نماذج التعلم العميق يتم فيه تقسيم العمل بين عدة “خبراء” (وهم شبكات عصبية فرعية)، بدل الاعتماد على نموذج واحد ضخم يقوم بكل شيء. وتتوافق هذه الرؤية مع تصريحات رن تشنغفي، مؤسس هواوي، الذي أقر بأن رقائق “أسيند” لا تزال متأخرة بجيل عن نظيراتها الأمريكية، لكنه شدد على إمكانية سد الفجوة من خلال تقنيات مثل التكديس والتجميع.

ولا تزال هوية المعالج الذي سيعتمد عليه نموذج DeepSeek V4 غير مؤكدة حتى الآن، في ظل مؤشرات على دعم متزايد لبنية بلاكويل من إنفيديا، إلى جانب تطوير أدوات برمجية محسّنة من قبل شركات مثل Ant Group، التابعة لعملاق التكنولوجيا Alibaba Group.

The short URL of the present article is: https://followict.news/d56r