英伟达发布首款用于自动驾驶汽车开发的视觉语言动作模型

来源:观察者网

2025-12-02 08:37

【文/观察者网 潘昱辰 编辑/高莘】据路透社报道,英伟达于当地时间12月1日发布了新的开源软件Alpamayo-R1,旨在利用人工智能(AI)中的一些最新“推理”技术加快自动驾驶汽车的开发。该模型目前已在GitHub和Hugging Face等平台开源发布。

英伟达此次发布的Alpamayo-R1以秘鲁一座特别难以攀登的山峰命名,是一款“视觉-语言-动作”的AI模型。该模型可使自动驾驶汽车通过传感器组在道路上获得的信息,转换为自然语言描述的行为。

英伟达Alpamayo-R1 英伟达

其突破在于,在规划穿越世界的道路时,它会自主描述该行为。例如,如果汽车看到一条自行车道,它会注意到它看到了这条路,并且正在调整路线。而在过去,大多数自动驾驶汽车难以解释为什么选定特定的行驶路径,这使得工程师很难判断如何对自动驾驶系统进行改进,才能使汽车更为安全。

Alpamayo-R1基于英伟达今年1月推出的Cosmos-Reason推理模型构建,该模型具备在响应前对决策进行逻辑推演的能力,并于8月推出了更多扩展版本。

英伟达汽车营销经理凯特瓦沙巴赫(Katie Washabaugh)表示,开放这一平台背后的动机之一是,自动驾驶的开发研究人员可以了解这些模型是如何进行工作的,从而让整个行业提出评估其工作的标准方法。

随着芯片成为AI发展的核心,英伟达已成为世界上最有价值的公司之一。但该公司还拥有一个广泛的软件研究部门,通过发布开源人工智能代码,令其他公司可以采用。

本文系观察者网独家稿件,未经授权,不得转载。

责任编辑:潘昱辰
观察者APP,更好阅读体验

普京访印:美国都在买,印度凭啥不能买?

日本开发稀土担心中国干扰?日防相放话

“美欧抢矿,遭殃的却是他们”

美国又开炮欧盟:你们在“霸凌”美国军工!

时代变了,“欧洲人迫切想要中国技术”