Follow ICT
شعار الموقع الاساسى
جايزة 160
جايزة 160

OpenAI: نموذج GPT-4o يتحدث ويرى مثل الإنسان

زعمت شركة OpenAI، أن نموذجها الجديد للذكاء الاصطناعي (GPT-4o) هو أقرب خطوة إلى التفاعل الطبيعي بين الإنسان والحاسوب، ويمكنه قبول أي مجموعة من النصوص والصوت والصور بصفتها مدخلات ويمكنه توليد مخرجات بجميع التنسيقات الثلاثة.

وبحسب الشركة الناشئة، فإن النموذج الجديد قادر على تعرف المشاعر وقراءة تعبيرات وجهك، ويتيح لك مقاطعته في منتصف الكلام، وترجمة اللغة المنطوقة في الوقت الفعلي، ويستجيب بسرعة استجابة الإنسان تقريبًا أثناء المحادثات.

وكشفت ميرا موراتي، مديرة التكنولوجيا في OpenAI خلال عرض تقديمي، ما يميز GPT-4o قائلة إنه يوفر مستوى ذكاء GPT-4 للجميع، ويشمل ذلك مستخدمينا المجانيين.

وأضافت: تعد هذه المرة الأولى التي نخطو فيها خطوة كبيرة إلى الأمام عندما يتعلق الأمر بسهولة الاستخدام.

وخلال العرض التقديمي، عرضت OpenAI قدرة GPT-4o على الترجمة مباشرة بين اللغتين الإنجليزية والإيطالية، مما ساعد أحد الباحثين في حل معادلة خطية في الوقت الفعلي على الورق، وتقديم إرشادات بخصوص التنفس العميق لمدير تنفيذي آخر في OpenAI عن طريق الاستماع إلى أنفاسه.

واجتمع مهندسو OpenAI ومديرة التكنولوجيا حول الهاتف لإظهار الإمكانات الجديدة. وشجعوا المساعد على زيادة التعبير أثناء تأليف قصة قبل النوم، ومن ثم طالبوه فجأة بالتحول إلى صوت آلي، قبل أن يطالبوه باختتام القصة بصوت غنائي.

وفي وقت لاحق، طالبوا المساعد بالنظر إلى ما تراه كاميرا الهاتف والاستجابة لما يظهر عبر الشاشة. وكان المساعد أيضًا قادرًا على المقاطعة أثناء التحدث والرد دون المطالبة المستمرة أثناء عمله بصفته مترجمًا.

وتعد هذه المزايا ترقية كبيرة للوضع الصوتي الحالي في ChatGPT الذي يمكنه الدردشة مع مستخدم مع أن التفاعل محدود جدًا، ولا يمكن مقاطعة الإصدار الحالي أو الاستجابة لما تراه الكاميرا.

وتعمل OpenAI على إتاحة النموذج الجديد للجميع، ويشمل ذلك مستخدمي ChatGPT المجانيين، خلال الأسابيع القليلة المقبلة، كما تصدر أيضًا إصدار سطح المكتب من ChatGPT.