أخر الأخباراتصالات و تكنولوجيا

مجانا، إطلاق تشات جي بي تي بإصدار أسرع باسم GPT-4o

اقتصادنا – دبي
أعلنت شركة أوبن اي آي OpenAI عن إطلاق إصدار جديد لأداة الذكاء الاصطناعي لديها وهو النموذج GPT-4o AI الجديد وهو أسرع ومجاني لجميع المستخدمين، وتقول إنه “يمثل مستقبل التفاعل بيننا وبين الآلات” وسيتوفر الاصدار الجديد خلال أيام فيما يتاح للمطوريين الوصول إليه عبر واجهة البرمجة API.

وكشفت الشركة يوم الاثنين أنها نموذجها الرائد الجديد للذكاء الاصطناعي، المسمى GPT-4o، سيتم إطلاقه بالإضافة إلى التحديثات التي تضمنت خدمة سطح المكتب الجديدة والتطورات في مزايا المساعد الصوتي. وكشفت ميرا موراتي، كبيرة مسؤولي التكنولوجيا، أمام حشد من الحضور في مكاتب الشركة عن قدرات النموذج الجديد باعتباره خطوة إلى الأمام في مجال الذكاء الاصطناعي. وقالت إن النموذج الجديد نموذج GPT-4 AI الأسرع والأكثر دقة للمستخدمين مجانا فيما كان مخصصًا سابقًا للعملاء لقاء رسوم بحسب صحيفة الغارديان
وقال موراتي: “نحن ننظر إلى مستقبل التفاعل بيننا وبين الآلات”. “نعتقد أن GPT-4o يغير هذا النموذج فعلا.” ومن بين التحديثات التي كشفت عنها OpenAI يوم الاثنين، تحسين جودة وسرعة إمكانات اللغات بالإضافة إلى القدرة على تحميل الصور والمستندات الصوتية والنصية ليقوم النموذج بتحليلها. وقالت الشركة إنها ستطرح الميزات تدريجياً لضمان استخدامها بأمان
وكانت تقارير قد زعمت الأسبوع الماضي عن نية أوبن إي آي إطلاق منتج بحث من شأنه أن ينافس جوجل، لكن رويترز ذكرت أن الشركة أخرت الكشف عن هذا المشروع. ونفى سام ألتمان، الرئيس التنفيذي، أن يكون إعلان يوم الاثنين مجرد محرك بحث يتبع التقارير، لكنه غرد يوم الجمعة قائلًا: “لقد عملنا بجد على بعض الأشياء الجديدة التي نعتقد أن الناس سيحبونها! يبدو وكأنه سحر بالنسبة لي

وتم عرض القدرات الصوتية الجديدة للنموذج، حيث تحدث اثنان من قادة أبحاث OpenAI مع نموذج صوتي يعمل بالذكاء الاصطناعي. وقام المساعد الصوتي بتأليف قصة قبل النوم عن الحب والروبوتات، حيث أخبره الباحثون بالتحدث بمجموعة متنوعة من السياقات العاطفية والصوتية المختلفة. كما استخدم عرض توضيحي آخر، وظيفة كاميرا الهاتف لعرض معادلة رياضية لنموذج الذكاء الاصطناعي، ثم طلب بأوامر صوتية توجيههم حول كيفية حلها من قبل النموذج

وتزعم الشركة أنها حسنت في زمن الاستجابة على الأوامر والتعليمات الصوتية وتقول إنه في السابق و قبل GPT-4o، كان بالإمكان استخدام الوضع الصوتي للتحدث إلى ChatGPT بزمن 2.8 ثانية (GPT-3.5) و5.4 ثانية (GPT-4) في المتوسط في عمليات يتم فيه نقل الصوت إلى نص وتحليله قم إداته إلى نسق صوتي، ويترتب على هذه العملية فقدان الكثير من المعلومات مثل نغمة الحديث وفصل الضوضاء في الخلفية، والتعرف على الضحك أو الغناء أو التعبير عن المشاعر. أما باستخدام GPT-4o، فقد قامت الشركة بتدريب نموذج واحد جديد شامل عبر النص والرؤية والصوت، مما يعني أن جميع المدخلات والمخرجات تتم معالجتها بواسطة نفس الشبكة العصبية

اترك تعليقاً

زر الذهاب إلى الأعلى