资讯

英伟达发布“全栈机器人平台”

原创 2026-01-14 10:49 Mulan 来源:AGV网
美国英伟达公司(NVIDIA)

机器人产业正在经历一次方法论转向:单点算法或单一硬件的领先,越来越难以支撑“泛化能力、工程可靠性与规模化交付”三者同时成立。围绕这一痛点,英伟达(NVIDIA)在CES 2026期间集中推出一套面向机器人与“物理AI(Physical AI)”的全栈平台组合,将开放基础模型、仿真评测框架、工作流编排与边缘计算模块打包推进,试图把机器人研发流程从碎片化工具链,拉回到更可复制的“标准工程化管线”。

在官方表述中,NVIDIA创始人兼首席执行官黄仁勋(Jensen Huang)把此次动作定义为机器人产业的关键拐点。他在新闻稿中表示,“机器人领域的ChatGPT时刻已经到来”,物理AI的突破正在解锁全新的应用;并强调英伟达的Jetson机器人处理器、CUDA、Omniverse以及开放物理AI模型,将支持全球合作伙伴用AI驱动机器人改造行业。 英伟达希望像Android之于智能手机那样,成为“通用型机器人”的默认平台层。

从“模型层”看,NVIDIA此次发布的核心是三类开放模型:其一是面向物理世界合成数据与仿真评测的“世界模型”体系NVIDIA Cosmos,其中包括Cosmos Transfer 2.5与Cosmos Predict 2.5,用于物理一致的合成数据生成与在仿真中进行策略评估;其二是Cosmos Reason 2,一款面向物理世界理解的推理视觉语言模型(VLM);其三是NVIDIA Isaac GR00T N1.6——一款面向人形机器人、具备推理能力的视觉-语言-动作(VLA)开放模型,强调全身控制能力并调用Cosmos Reason来增强上下文理解。上述模型与框架被英伟达明确放到开放生态中,官方称其可在Hugging Face等渠道获取。 作为补充,英伟达(NVIDIA)在其开源仓库中也对GR00T N1.6给出了更技术化的定义:该模型接收语言与图像等多模态输入,用于在多样环境中完成操控任务,并支持通过后训练适配具体本体与任务。

“仿真与评测层”则对应NVIDIA对研发流程的再组织。新闻稿称,NVIDIA发布了开源框架NVIDIA Isaac Lab-Arena,用于在仿真中进行大规模策略评测与基准测试,并与Lightwheel协作设计评测与任务层;同时推出NVIDIA OSMO作为云原生编排框架,把合成数据生成、模型训练、软件在环测试等流程统一到一个“指挥中心”,可跨工作站与混合云资源运行,以缩短开发迭代周期。 Unite.AI进一步把这套组合概括为“脑(GR00T)+世界(Cosmos)+实验场(Lab-Arena)+调度台(OSMO)”的闭环,并强调其目标是把机器人在上真实工厂/仓库之前的大部分风险验证,前置到可规模化的虚拟环境里完成。

“算力与部署层”同样给出了清晰的产品化参数口径。英伟达在新闻稿中披露,新发布的NVIDIA Jetson T4000模块基于Blackwell架构,为Jetson Orin用户提供升级路径:在1000片采购量下定价为1999美元,宣称相较上一代实现4倍性能提升,提供1,200 FP4 TFLOPS算力与64GB内存,并可在可配置的70瓦功耗范围内运行,面向能耗受限的自主机器与通用机器人。 同一份材料还提到,NVIDIA IGX Thor将把机器人算力进一步延伸到工业边缘侧,提供企业级软件支持与功能安全能力,并计划在当月晚些时候提供。

值得注意的是,NVIDIA也在把“开源社区”纳入其平台战略的一部分。新闻稿称,Hugging Face与NVIDIA将把Isaac与GR00T相关技术整合进LeRobot开源框架,以降低开发者获取模型、数据与工具链的门槛,并推动端到端开发更顺滑。 Hugging Face是一家以开源模型、数据集与协作工具闻名的AI社区与平台企业,近年在开源生态中扮演“分发与协作枢纽”的角色;英伟达选择在此完成整合,意图把其机器人栈的使用门槛拉到更广泛的开发者群体。

这次“全栈机器人平台”的信号并不在于某一项模型或某一块模组参数,而在于NVIDIA把机器人研发的关键瓶颈拆解为可对接的标准接口:用开放模型缩短预训练门槛,用仿真评测把“可用性验证”规模化,用OSMO把算力与流程编排工程化,再用Jetson/Thor/IGX把能力落到边缘部署。对希望从单点智能迈向可复制规模化落地的机器人产业而言,这种“工具链一体化+开源分发”的路线,正在把竞争从“单机性能”推向“研发效率与交付效率”的系统战。

取消