
(AsiaGameHub) – Nvidia أطلقت نموذج Nemotron 3 Super الجديد، وهو نموذج ذكاء اصطناعي مفتوح المصدر مصمم لتشغيل أسرع ومعالجة تعليمات طويلة جدًا. تهدف Nvidia هذا النموذج إلى المطورين الذين يبنون وكلاء الذكاء الاصطناعي، حيث يمكن أن ترتفع التكاليف بسرعة عندما تحتاج النماذج إلى التفكير من خلال خطوات عديدة.
أشياء مهمة للمعرفة
- تقول Nvidia أن Nemotron 3 Super توفر عرضًا إجماليًا (throughput) أعلى بنسبة تصل إلى 7.5x مقارنة بـ Qwen3.5 122B A10B.
- يدعم النموذج نوافذ السياق التي تصل إلى 1 مليون توكن.
- جعلت Nvidia النموذج والمواد التدريبية ذات الصلة متاحة للجمهور بشكل مفتوح.
مصمم للسرعة والمدخلات الطويلة
لا يستخدم Nemotron 3 Super جميع معلماته في كل مرة يرد فيها. بدلاً من ذلك، يستخدم تصميم Mixture of Experts (خليط من الخبراء)، حيث يتم تشغيل جزء فقط من النموذج لكل مهمة. تقول Nvidia أن هذا يساعد في خفض تكاليف الاستدلال ويجعل النموذج أكثر فائدة لـ AI agents (وكلاء الذكاء الاصطناعي) التي غالبًا ما تستهلك كميات كبيرة من التوكنات.
يستخدم النموذج مزيجًا من طبقات Mamba و Transformer عبر 88 طبقة. بعبارة بسيطة، تساعد أحد الأجزاء في التعامل مع المدخلات الطويلة بكفاءة أكبر، بينما تساعد الأخرى في الحفاظ على الدقة. تقول Nvidia أن هذا الإعداد يمنح النموذج نافذة سياق أصلية تصل إلى 1 مليون توكن.
أضافت Nvidia أيضًا نظام توجيه يسمى LatentMoE. يرسل كل مهمة إلى مجموعة أصغر من الخبراء داخل النموذج بدلاً من استخدام النظام الكامل. وفقًا لـ Nvidia، يسمح هذا بالتخصص أكثر دون رفع تكاليف الاستدلال بنفس الطريقة التي تفعلها أنظمة MoE العادية.
تقول الشركة أن Nemotron 3 Super توفر عرضًا إجماليًا يبلغ 2.2x من GPT OSS 120B و 7.5x من Qwen3.5 122B A10B في إعداد الاختبار المذكور. تقول Nvidia أيضًا أنها توفر أكثر من 5x من العرض الإجمالي وحتى 2x من الدقة مقارنة بالإصدار السابق من Nemotron Super.
تم التدريب على 25 تريليون توكن، متبوعًا بمرحلة إضافية على 51 مليار توكن لتمديد طول السياق إلى 1 مليون توكن. ثم استخدمت Nvidia التدريب الدقيق الخاضع للإشراف والتعلم بالتعزيز لتحسين الأداء.
كانت نتائج المعايير قوية أيضًا. تقرر Nvidia درجات 83.73 على MMLU Pro، 90.21 على AIME25، 60.47 على SWE Bench مع OpenHands، 85.6% على PinchBench، و 91.64 على RULER 1M. يُدير النموذج أيضًا Nvidia AI Q، وهو وكيل بحثي وصل إلى قمة لوحة المتصدرين لـ Deepresearch Bench.
قامت Nvidia بتدريب النموذج في NVFP4، وهو تنسيق مصمم لـ Blackwell GPUs. على أجهزة B200، تقول Nvidia أن الاستدلال يمكن أن يعمل بسرعة تصل إلى 4x أسرع من FP8 على H100، بدون فقدان دقة مُبلغ عنه.
Nemotron 3 Super متاح تحت رخصة Nvidia Nemotron Open Model License. يمكن للمطورين الحصول على نقاط التفتيش (checkpoints) في صيغ BF16، FP8، و NVFP4 على Hugging Face. تدعم Nvidia أيضًا الاستدلال من خلال Nvidia NIM، build.nvidia.com، Perplexity، Openrouter، Together AI، Google Cloud، AWS، Azure، Coreweave، Dell Enterprise Hub، و HPE. تتوفر المزيد من الدلائل والوصفات من خلال NeMo.
تم تقديم هذه المقالة من قبل مزود محتوى طرف ثالث. AsiaGameHub (https://asiagamehub.com/) لا تقدم أي ضمانات أو تعهدات بشأن محتواها.
التصنيف: أخبار عاجلة، تحديثات عامة
توفر AsiaGameHub خدمات توزيع موجهة لقطاع الألعاب الإلكترونية (iGaming) للشركات والمؤسسات، مع الوصول إلى أكثر من 3,000 وسيلة إعلام آسيوية متميزة وأكثر من 80,000 من المؤثرين المتخصصين. وتُعد الجسر الأمثل لتوزيع محتوى iGaming والكازينو والرياضات الإلكترونية عبر منطقة الآسيان.
