搜吧 - 智能搜索
  • 適用汽車業的 AI 與加速運算解決方案 | NVIDIA

    加速開發實體人工智慧(AI) 的 NVIDIA Cosmos 平台推出一系列世界基礎模型,這是可以預測和產生虛 查看所有部落格文章 NVIDIA 和 現代汽車集團合作打造 AI 工廠,推動 AI 驅動的移動解決方案 這家全球頂尖汽車製造商將部署 NVIDIA Blackwell AI 基礎架構,驅動自動駕駛、智慧工廠與機器人技術領域的突破性進展。 閲讀新聞...

  • 英伟达GTC关于自动驾驶部分,老黄惜字如金... 来自电动知士大雨...

    * 在 NVIDIA RTX 6000 Pro Blackwell 平台上,AR1 实现了 99ms 的端到端推理延迟,满足了自动驾驶的实时性要求(通常为 100ms)。Alpamayo-R1 是英伟达通过整合结构化推理与精确控制,来实现更安全、更可解释的 L4 级别自动驾驶的实用路径。NVIDIA 计划在未来发布 AR1 模型以及 CoC 数据集的一个子集,以推动该领域...

  • Alpamayo-R1 - 英伟达推出的推理版视觉-语言-动作模型 | AI工具集

    Alpamayo-R1(AR1)是英伟达推出的视觉-语言-动作(VLA)模型,通过因果推理提升自动驾驶的决策能力和泛化性。模型的核心创新包括:构建因果链(CoC)数据集,通过“人机协同+自动标注”生成高质量的推理轨迹;采用Cosmos-Reason作为VLM骨干网络,网络基于大量视觉问答样本训练,具备物理常识和具身推理能力;设计多阶段训练策略,结合监...

  • ...Computing Solutions for Automotive Industries | NVIDIA

    NVIDIA Releases Open Model for Reasoning Autonomous Vehicles Alpamayo-RI, based on NVIDIA Cosmos™ Reason, is the first openly available reasoning vision-language-action model for AV research. Read the Blog Use Cases From Design to Self-Driving ...

  • 英伟达长达41页的自驾VLA框架!因果链推理,实车可部署-CSDN博客

    模型参数从0.5B扩展至7B时,性能持续提升。实车道路测试验证了该模型的实时性能(延迟99毫秒)及成功的城市路况部署能力。通过将可解释推理与精准控制相衔接,AR1为实现L4级自动驾驶提供了一条切实可行的路径。未来,英伟达计划发布AR1模型及部分CoC数据集。 论文标题:Alpamayo-R1: Bridging Reasoning and Action Prediction...

  • ...长达41页的自驾VLA框架!因果链推理,实车可部署算法Alpamayo-R1...

    模型参数从0.5B扩展至7B时,性能持续提升。实车道路测试验证了该模型的实时性能(延迟99毫秒)及成功的城市路况部署能力。通过将可解释推理与精准控制相衔接,AR1为实现L4级自动驾驶提供了一条切实可行的路径。未来,英伟达计划发布AR1模型及部分CoC数据集。 论文标题:Alpamayo-R1: Bridging Reasoning and Action Prediction...

  • 人工智慧運算的全球領袖 | NVIDIA

    NVIDIA 任務控制 NVIDIA AI 企業平台 實體AI - Cosmos NVIDIA Run:ai 機器人 - Isaac 電信業 - Aerial 查看所有軟體 工具 AI 工作台 透過GPU 上的 NVIDIA AI Workbench 簡化 AI 開發 API 目錄 探索專為開發人員提供的 NVIDIA AI 模型、藍圖與工具 資料中心管理 用於資料中心加速的 AI 與 HPC...

  • 吴新宙带领英伟达冲刺自动驾驶L4背后的VLA大模型算法 - 维科号V

    也就是大多为反应性地操作而没有明确推理,难以泛化到需要反事实推理的模糊或长时域场景。 此外,简单的将自动驾驶的推理视为纯粹的自然语言处理(NLP)问题,会忽略驾驶需要丰富的3D和物理空间知识:车道几何、交通规则、智能体交互和动态约束。 于是,英伟达的自动驾驶VLA模型 Alpamayo-R1 采用以下创新方法来 ...

  • 英伟达市值破5万亿美元:黄仁勋要做的不只是AI,还要接管方向盘...

    被“藏”在发布会后的AI模型 如果说Hyperion 10是英伟达自动驾驶的“身体”,那么昨晚低调发布的Alpamayo-R1(AR1)大模型,就是它的“大脑”。 这是一个视觉-语言-动作模型,英伟达将其定义为“模块化VLA架构”,能够适配任何现成的视觉语言模型主干网络。

  • 英伟达41页VLA框架:Alpamayo-R1凭“因果链推理”重塑端到端自动驾驶

    当前的端到端自动驾驶模型在处理常见路况时表现不错,但在面对那些罕见但至关重要的长尾场景时,其决策往往显得脆弱且不可靠。这主要是因为模型缺乏对驾驶决策背后深层次的因果关系理解,仅仅是通过模仿来学习,导致在未知或复杂的安全关键时刻表现不佳。 为了解决这一难题,本论文提出了Alpamayo-R1,一个集成了因果链推理与...