搜吧 - 智能搜索
  • 吴新宙带领英伟达冲刺自动驾驶L4背后的VLA大模型算法 - 维科号V

    也就是大多为反应性地操作而没有明确推理,难以泛化到需要反事实推理的模糊或长时域场景。 此外,简单的将自动驾驶的推理视为纯粹的自然语言处理(NLP)问题,会忽略驾驶需要丰富的3D和物理空间知识:车道几何、交通规则、智能体交互和动态约束。 于是,英伟达的自动驾驶VLA模型 Alpamayo-R1 采用以下创新方法来 ...

  • 英伟达市值破5万亿美元:黄仁勋要做的不只是AI,还要接管方向盘...

    被“藏”在发布会后的AI模型 如果说Hyperion 10是英伟达自动驾驶的“身体”,那么昨晚低调发布的Alpamayo-R1(AR1)大模型,就是它的“大脑”。 这是一个视觉-语言-动作模型,英伟达将其定义为“模块化VLA架构”,能够适配任何现成的视觉语言模型主干网络。

  • 英伟达41页VLA框架:Alpamayo-R1凭“因果链推理”重塑端到端自动驾驶

    当前的端到端自动驾驶模型在处理常见路况时表现不错,但在面对那些罕见但至关重要的长尾场景时,其决策往往显得脆弱且不可靠。这主要是因为模型缺乏对驾驶决策背后深层次的因果关系理解,仅仅是通过模仿来学习,导致在未知或复杂的安全关键时刻表现不佳。 为了解决这一难题,本论文提出了Alpamayo-R1,一个集成了因果链推理与...

  • **英伟达重磅推出ALPAMAYO模型,加速智能驾驶汽车革命** 在自动驾驶技术迈向高阶商业化的关键节点,英伟达以一场颠覆性创新再次成为行业焦点。2025年12月,该公司于全球顶级AI会议NeurIPS上发布开源模型Alpamayo-R1(AR1),这是首个面向自动驾驶领域的工业级“视觉-语言-动作”(VLA)推理模型。其突破性技术路径不仅填补了...
  • Alpamayo-R1的出现,或许正在改写这一局面。英伟达在NeurIPS2025上正式发布这款基于Cosmos-Reason系列的推理视觉语言动作模型,首次实现“先思考再决策”的自动驾驶逻辑。 统一架构、多模态融合、推理链路优化,是Alpamayo-R1的三大核心亮点。它能同时处理摄像头、激光雷达和文本指令,避免了传统分模块训练带来的误差叠
  • 英伟达推L3级自动驾驶全栈系统Alpamayo - 与非网

    英伟达智能驾驶的车端和云端 图片来源:英伟达 从模型训练,传感器仿真、交通流仿真、合成数据、世界模型到模型部署,从VLM到VLA,英伟达都替主机厂想好了,只要主机厂掏钱就行。 Alpamayo实际就是端到端系统 图片来源:英伟达 Alpamayo网络架构 这里英伟达没有细说token-to-token的意思,实际就是将串行token改为并行,LLM最...

  • 英伟达在加利福尼亚州圣地亚哥举行的 NeurIPS 人工智能大会上宣布推出新的基础设施与人工智能模型,旨在构建“具身智能”(Physical AI)的核心技术基础,支持能够感知并与现实世界互动的机器人和自动驾驶车辆。 该公司发布了 Alpamayo-R1,一款面向自动驾驶研究的开源推理型视觉语言模型,称其为业界首个专注于自动驾驶领域的视...
  • 英伟达推出革命性 Alpamayo 平台!自动驾驶新时代来临

    在2026年国际消费电子展(CES)上,英伟达发布了一款全新的开源 AI 平台 ——Alpamayo。这一平台专门为实体机器人和自动驾驶汽车而设计,旨在帮助这些智能设备在复杂的驾驶场景中作出更为智能的决策。英伟达的 CEO 黄仁勋表示,这一平台的推出标志着机器在现实世界中理解、推理与行动的 “ChatGPT 时刻” 已然到来。

  • 英伟达要用“因果推理”重塑L4自动驾驶?! 车东西12月3日消息,日前,英伟达(NVIDIA)研究团队正式发布并开源全新的视觉-语言-动作(VLA)模型Alpamayo-R1,并明确宣布计划在未来的更新中开源该模型及部分核心数据集。 ▲Alpamayo-R1对应的数据集已上传至开源社区 ...
  • 在数据许可的部分,英伟达明确了数据集可以用于商业和非商业用途。 Alpamayo-R1是全球首个针对自动驾驶场景设计的开源视觉-语言-动作(VLA)大模型。与以往仅模仿驾驶动作的端到端模型不同,Alpamayo-R1通过“链式推理”让车辆在做出决策时“自言自语”,整个过程是先将传感器数据如摄像头、雷达等转化为自然语言描述,然后逐...