အဓိက ထုတ်ယူမှုများ-
- Nvidia သည် forward pass တစ်ခုလျှင် 12.7B ဘောင်များကိုသာ အသက်ဝင်စေမည့် 120B-ပါရာမီတာ ဖွင့်ထားသော MoE မော်ဒယ် Nemotron 3 Super ကို ထုတ်ပြန်ခဲ့သည်။
- Nemotron 3 Super သည် 8k-in/64k-out ဆက်တင်များတွင် အေးဂျင့်အလုပ်ချိန်များတွင် Qwen3.5-122B-A10B ထက် 7.5x ပိုများသော throughput ကို ပေးသည်။
- Hugging Face တွင် စစ်ဆေးရေးဂိတ်များနှင့် လေ့ကျင့်ရေးဒေတာပါရှိသော Nvidia Nemotron Open Model License အောက်တွင် မော်ဒယ်ကို အပြည့်အဝဖွင့်ထားသည်။
Nvidia သည် Qwen3.5-122B ကျော် 7.5x throughput အမြတ်များဖြင့် Nemotron 3 Super ကို မိတ်ဆက်ခဲ့သည်
ဟိ နောက်ဆုံးပေါ် Nvidia မော်ဒယ် Mixture-of-Experts (MoE) ဗိသုကာကို အသုံးပြု၍ forward pass တစ်ခုလျှင် parameters 12.7 billion ကိုသာ အသက်သွင်းပေးသည်၊ ဆိုလိုသည်မှာ ၎င်း၏အလေးချိန်အများစုသည် စုံစုံစဉ်အတွင်း ဘာမှမဖြစ်ပါဘဲ။ အဆိုပါ ဒီဇိုင်းရွေးချယ်မှုသည် အဆင့်များစွာကို ဖြန့်ကျက်လုပ်ဆောင်သည့်အခါတွင် ဆော့ဖ်ဝဲအင်ဂျင်နီယာများ ကြုံတွေ့ရသည့် ပြဿနာနှစ်ခုကို တိုက်ရိုက်ပစ်မှတ်ထားသည်။ AI အေးဂျင့်များ: တိုးချဲ့ထားသော ကျိုးကြောင်းဆင်ခြင်ကွင်းဆက်များ၏ ထပ်လောင်းကုန်ကျစရိတ်နှင့် အများအပြားအေးဂျင့်ပိုက်လိုင်းများတွင် 15 ဆအထိ များပြားနိုင်သည့် မီးပုံးပျံသင်္ကေတအသုံးပြုမှု။
Nemotron 3 Super သည် Nvidia ၏ Nemotron 3 မိသားစုတွင် ဒုတိယမော်ဒယ်ဖြစ်ပြီး၊ 2025 ခုနှစ် ဒီဇင်ဘာလမှ Nemotron 3 Nano ပြီးနောက် Nvidia ကြေငြာခဲ့သည်။ မတ်လ 10 ရက် 2026 ဝန်းကျင်တွင် ထုတ်ဝေသည်။
မော်ဒယ်သည် အလွှာ 88 ခုတွင် ဟိုက်ဘရစ် Mamba-Transformer ကျောရိုးကို အသုံးပြုထားသည်။ Mamba-2 ဘလောက်များသည် ရှည်လျားသော အစီအစဥ်များကို အချိန်နှင့်တစ်ပြေးညီ ထိရောက်စွာလုပ်ဆောင်နိုင်ပြီး Transformer အာရုံစူးစိုက်မှုအလွှာများသည် တိကျသောပြန်လည်သိမ်းဆည်းမှုကို ထိန်းသိမ်းပေးပါသည်။ ထိုပေါင်းစပ်မှုသည် အာရုံစူးစိုက်မှု ဒီဇိုင်းများ၏ ပုံမှန်မှတ်ဉာဏ်ပြစ်ဒဏ်များမပါဘဲ ဆက်စပ်ဝင်းဒိုးများအတွက် စံနမူနာအခြေခံ ပံ့ပိုးမှုပေးပါသည်။
Nvidia LatentMoE လမ်းကြောင်းစနစ်တွင် တိုကင်ထည့်ထားသည့်အရာများကို အလွှာတစ်ခုလျှင် ကျွမ်းကျင်သူ 512 ဦးထံ မပို့မီ အဆင့်နိမ့်သောနေရာသို့ တိုကင်ထည့်ထားသော လမ်းကြောင်းပေါ်တွင် တစ်ကြိမ်လျှင် 22 ဦး အသက်ဝင်စေပါသည်။ ၎င်းသည် စံ MoE ချဉ်းကပ်မှုများနှင့် နှိုင်းယှဉ်ပါက တူညီသော ကောက်ချက်ချစရိတ်ဖြင့် ကျွမ်းကျင်သူများကို လေးဆခန့် ပိုမိုခွင့်ပြုပေးပြီး ကျွမ်းကျင်အဆင့်တွင် Python logic နှင့် SQL ကိုင်တွယ်ခြင်းမှ ခွဲထုတ်ခြင်းကဲ့သို့သော ပိုမိုကောင်းမွန်သော လုပ်ငန်းဆောင်တာ အထူးပြုမှုကို လုပ်ဆောင်နိုင်သည်ဟု ကုမ္ပဏီမှ ပြောကြားခဲ့သည်။
တူညီသောအလေးချိန်ဦးခေါင်းနှစ်ခုကိုအသုံးပြု၍ Multi-Token Prediction အလွှာများသည် စဉ်ဆက်မပြတ်တွေးခေါ်မှုကို အရှိန်မြှင့်ပြီး မူရင်းမှန်းဆကုဒ်ကို ခွင့်ပြုသည်။ ဖွဲ့စည်းတည်ဆောက်ထားသော လုပ်ငန်းဆောင်တာများတွင် Nvidia သည် သုံးဆပိုမိုမြန်ဆန်သောမျိုးဆက်ကို အစီရင်ခံသည်။
မော်ဒယ်ကို အဆင့်နှစ်ဆင့်ဖြင့် တိုကင်ပေါင်း 25 ထရီလီယံဖြင့် ကြိုတင်လေ့ကျင့်ထားသည်။ ပထမအဆင့်တွင် ကျယ်ပြန့်သောဒေတာ၏ 20 ထရီလီယံတိုကင်များကို အသုံးပြုခဲ့သည်။ ဒုတိယတွင် စံနှုန်းစွမ်းဆောင်ရည်အတွက် ပြင်ဆင်ထားသည့် အရည်အသွေးမြင့် တိုကင်ငါးထရီလီယံကို အသုံးပြုခဲ့သည်။ တိုကင် 51 ဘီလီယံရှိ နောက်ဆုံး တိုးချဲ့မှုအဆင့်သည် မူရင်းအကြောင်းအရာကို တိုကင်တစ်သန်းအထိ တိုးချဲ့ခဲ့သည်။ လေ့ကျင့်မှုအပြီးတွင် အကြမ်းဖျင်းအားဖြင့် နမူနာ ခုနစ်သန်းခန့်အပေါ် ကြီးကြပ်မှု ဒဏ်ချက်ညှိခြင်း နှင့် ပတ်ဝန်းကျင် 21 ခုတွင် အားဖြည့်သင်ကြားမှု 1.2 သန်းကျော် ပါဝင်ပါသည်။
စံသတ်မှတ်ချက်များတွင်၊ Nemotron 3 Super သည် MMLU-Pro တွင် 83.73 ရမှတ်၊ AIME25 တွင် 90.21 နှင့် OpenHands ကိုအသုံးပြုထားသော SWE-Bench တွင် 60.47 ရခဲ့သည်။ PinchBench တွင် ၎င်းသည် 85.6 ရာခိုင်နှုန်းအထိရောက်ရှိခဲ့ပြီး ၎င်း၏အတန်းအစားဖွင့်မော်ဒယ်များကြားတွင် အစီရင်ခံမှုအမြင့်ဆုံးရမှတ်ဖြစ်သည်။ ရှည်လျားသောအကြောင်းအရာအကဲဖြတ်မှုတွင် RULER 1M တွင် 91.64 ရမှတ်ရခဲ့သည်။
GPT-OSS-120B နှင့် နှိုင်းယှဉ်ပါက Nemotron 3 Super သည် 8k input နှင့် 64k output တွင် 2.2 ဆ ထုတ်လွှင့်သည်။ Qwen3.5-122B-A10B နှင့် ဆန့်ကျင်ဘက်တွင်၊ ထိုကိန်းဂဏန်းသည် 7.5 ဆအထိ ရှိလာပါသည်။ Nvidia သည် ယခင် Nemotron စူပါမျိုးဆက်ထက် တိကျမှု ငါးဆကျော်နှင့် တိကျမှု နှစ်ဆအထိလည်း အစီရင်ခံပါသည်။
Nvidia သည် Blackwell GPUs အတွက် အကောင်းဆုံးဖြစ်အောင်ပြုလုပ်ထားသော NVFP4 လေး-ဘစ် floating-point ဖော်မတ်ဖြင့် မော်ဒယ်ကို အဆုံးမှ အဆုံးအထိ လေ့ကျင့်ပေးခဲ့သည်။ B200 ဟာ့ဒ်ဝဲတွင်၊ Nvidia သည် တိကျမှုပျောက်ဆုံးခြင်းမရှိဘဲ H100 ရှိ FP8 နှင့် နှိုင်းယှဉ်ပါက လေးဆပိုမိုမြန်ဆန်သည်ဟု Nvidia မှပြောကြားခဲ့သည်။ Quantized FP8 နှင့် NVFP4 စစ်ဆေးရေးဂိတ်များသည် တိကျမှုအပြည့်ဖြင့် 99.8 ရာခိုင်နှုန်း သို့မဟုတ် ထို့ထက်ပို၍ ထိန်းသိမ်းထားသည်။
မော်ဒယ် Deepresearch Bench ဦးဆောင်သူစာရင်းတွင် ထိပ်ဆုံးနေရာသို့ရောက်ရှိခဲ့သည့် Nvidia AI-Q သုတေသနအေးဂျင့်ကိုလည်း ပါဝါပေးပါသည်။
Nemotron 3 Super ကို Nvidia Nemotron Open Model License အောက်တွင် အပြည့်အဝဖွင့်ထားသည်။ BF16၊ FP8 နှင့် NVFP4 ဖော်မတ်များတွင် စစ်ဆေးရေးဂိတ်များကို Hugging Face တွင် ရရှိနိုင်ပါသည်။ အနုမာနအားဖြင့် ထောက်ခံသည်။ Nvidia Dell Enterprise Hub နှင့် HPE မှတစ်ဆင့် အဆောက်အအုံတွင်း ရွေးချယ်စရာများပါရှိသော NIM၊ build.nvidia.com၊ Perplexity၊ Openrouter၊ Together AI၊ Google Cloud၊ AWS၊ Azure နှင့် Coreweave။
ဆော့ဖ်ဝဲရေးသားသူများသည် vLLM၊ SGLang နှင့် TensorRT-LLM ကိုအသုံးပြု၍ NeMo ပလပ်ဖောင်းမှတဆင့် လေ့ကျင့်ရေးချက်ပြုတ်နည်းများ၊ ညှိုနှိုင်းလမ်းညွှန်ချက်များနှင့် အစုံအလင်ချက်ပြုတ်နည်းများကို ဝင်ရောက်ကြည့်ရှုနိုင်ပါသည်။