英伟达近日正式推出NVIDIA Nemotron 3系列开放模型,涵盖Nano、Super和Ultra三种规模,旨在支持大规模多智能体系统的开发与部署,实现高效的长上下文推理能力。这一系列模型通过引入创新架构和训练方法,为AI智能体应用提供了更强大的技术支撑。
Nemotron 3 Nano作为该系列的小型模型,拥有300亿参数,每次运行最多激活30亿参数,特别适合针对性强、计算成本效益高的任务。该模型在软件调试、内容摘要、AI助手工作流及信息检索等场景中表现出色。相比之下,Super模型拥有约1000亿参数,每个token最多激活100亿参数,适用于需要多智能体协作的低延迟复杂任务。而Ultra模型则拥有约5000亿参数,每个token最多激活500亿参数,能够处理深度研究和策略规划等复杂AI工作流。
在技术架构方面,Nemotron 3系列引入了混合Mamba-Transformer MoE架构,结合跨交互式环境的强化学习,原生支持100万个token的上下文窗口。这种设计使得模型在多智能体应用中能够实现高吞吐量和长时域推理。具体而言,Mamba层擅长高效序列建模,Transformer层则通过精细的注意力机制补充逻辑关系,而MoE路由在不增加计算成本的情况下显著提升了有效参数数量。
为了提升模型的实际应用能力,英伟达采用多环境强化学习训练方法,通过开源库NeMo Gym在多种环境中对模型进行后训练。这种方法能够生成在多步骤工作流程中表现可靠的模型,减少推理漂移,并处理智能体管道中的结构化操作。Nemotron 3的百万级上下文容量使其在处理长时间多步骤任务时能够更精准地关联信息,支持对大型代码库、长文档和扩展对话的持续推理。
在训练效率方面,Nemotron 3 Super和Ultra模型采用了基于NVIDIA Blackwell架构的超高效4位NVFP4训练格式。这种格式显著降低了显存需求,加速了训练进程,同时提高了模型质量。英伟达还设计了更新的NVFP4算法,确保在25万亿token的预训练数据集上实现准确稳定的训练。这一创新使得更大规模的模型能够在现有基础设施上进行训练,而不会因更高精度格式牺牲准确性。
为了支持开发者构建高性能AI智能体,英伟达还发布了面向专业开发者的训练数据集与前沿强化学习库集合。这些资源包括3万亿token规模的预训练、后训练及强化学习数据集,以及用于评估模型安全性和性能的NeMo evaluator。开发者可以利用这些工具和数据集训练、增强和评估自己的Nemotron模型,从而加速开发进程。
Nemotron 3 Nano已上线Hugging Face平台,并通过多个推理服务商提供支持。其Hugging Face地址为huggingface.co/nvidia/NVIDIA-Nemotron-3-Nano-30B-A3B-FP8,体验地址为build.nvidia.com/nvidia/nemotron-3-nano-30b-a3b。Super和Ultra模型预计将于2026年上半年推出,这两款更高性能的模型将成为开源社区关注的重点产品。
英伟达的这一系列举措不仅为开发者提供了强大的技术工具,还通过开源开放的方式降低了开发门槛。通过公开训练数据、强化学习环境和训练代码,英伟达希望更多开发者能够利用优质数据构建更好的模型,从而推动AI技术的进步和应用。这一战略不仅有助于英伟达在AI领域保持领先地位,也为整个行业的发展注入了新的活力。















