-
近日,英伟达在NeurIPS人工智能大会上推出面向自动驾驶研究的开源推理型视觉语言模型Alpamayo - R1,同步发布“Cosmos Cookbook”开发资源包。Alpamayo - R1基于Cosmos - Reason构建,可处理文本与图像信息。资源包助力开发者使用和训练模型。新模型技术对L4级自动驾驶企业重要,开源发布有望推动行业发展。
-
解读NVIDIA VLA 架构模型 Alpamayo-R1... 来自柳笛_6D - 微博
如何让自动驾驶系统像人类司机一样,能够基于常识和推理,灵活应对各种突发状况?NVIDIA 团队给出的答案是:Alpamayo-R1 (AR1),一个融合了“因果推理”的视觉-语言-动作模型。故事的转折点,发生在 NVIDIA 团队对自动驾驶系统的一次“复盘”会议上。他们意识到,仅仅依靠数据驱动的模式识别远远不够,真正的智能需要理解场景...
-
英伟达近日宣布,正式开源其专为自动驾驶场景设计的视觉-语言-动作(VLA)大模型Alpamayo-R1,并同步开放配套数据集及开发工具链。这一举措被视为自动驾驶领域技术生态发展的关键转折点,标志着高端自动驾驶技术从封闭体系向开放协作模式迈进。 作为全球首个开源的VLA自动驾驶模型,Alpamayo-R1突破了传统端到端模型仅依赖模仿驾...
-
英伟达首次开源自动驾驶VLA,Robotaxi进入「安卓时刻」,吴新宙带队全华班...
贾浩楠 发自 副驾寺,智能车参考| 公众号 AI4Auto 做Robotaxi和造手机一样简单是啥体验? 英伟达,刚刚在AI顶会NeurIPS上发布了Alpamayo-R1—— 英伟达的第一个自动驾驶VLA,各项性能比传统端到端强超过30%,而且发布即开源。 多模态大模型一统自动驾驶趋势下,Robotaxi门槛可能真的大大降低:芯片直接买英伟达,算法也...
-
英伟达发布面向 “智能驾驶” 汽车的 ALPAMAYO 模型。 英伟达发布面向 “智能驾驶” 汽车的 ALPAMAYO 模型。
-
易车讯在国际消费电子产品展览会(CES 2026)上,英伟达CEO黄仁勋发表主题演讲,重点阐述了英伟达对物理AI等AI未来发展趋势的理解,以及一些关于英伟达芯片的最新消息。 本次,英伟达宣布推出“全球首个”专为自动驾驶定做的思考与推理模型Alpamayo,该模型同样开源,2025年款梅赛德斯奔驰CLA将集成英伟达的完整自动驾驶技术栈。据介...
-
英伟达的 Alpamayo-R1:利用因果链推理赋能自动驾驶模型和数据工程剖析...
在快速发展的自动驾驶领域,英伟达刚刚发布了一个革命性创新:Alpamayo-R1 (AR1),这是一款先进的视觉-语言-动作 (VLA) 框架,在arXiv上以一份详尽的 41 页论文形式呈现。该论文于 2025 年 10 月 30 日发布,针对当前端到端自动驾驶系统的弱点——在罕见、安全关键的“长尾”场景中表现脆弱——提供了解决方案。
-
专题:2026年度国际消费电子展(CES) 新浪科技讯 英伟达 在1月5日发布Alpamayo 系列开源 AI 模型和仿真工具和数据集,旨在加速下一代安全、基于推理的自动驾驶汽车 (AV) 开发。 自动驾驶汽车必须在极其广泛的驾... 网页链接
-
业界首个:英伟达发布专注于自动驾驶的视觉语言动作模型 Alpamayo-R1
IT之家12 月 2 日消息,英伟达周一宣布推出新的基础设施与人工智能模型,旨在构建“具身智能”(Physical AI)的核心技术基础,包括能够感知并与现实世界互动的机器人和自动驾驶车辆。 这家半导体巨头在加利福尼亚州圣地亚哥举行的 NeurIPS 人工智能大会上发布了 Alpamayo-R1—— 一款面向自动驾驶研究的开源
-
英伟达发布Alpamayo:全球首个“会思考”的自动驾驶AI_3DM单机
Alpamayo引入了视觉-语言-动作(Vision-Language-Action,VLA)模型,使自动驾驶系统能够理解所看到的内容,对复杂驾驶场景进行推理,并生成具体的驾驶动作。该平台包含大型推理模型、用于测试罕见与极端场景的仿真工具,以及用于训练与验证的开放数据集。 英伟达表示,该方法提高了自动驾驶系统的透明度、安全性和稳健性,尤其是在复...
