新闻中心

EEPW首页 > 智能计算 > 业界动态 > 大算力芯片成为自动驾驶玩家新战线

大算力芯片成为自动驾驶玩家新战线

作者: 时间:2025-10-29 来源:EEPW 收藏

最近这段时间,易中天的股价涨上了天。没有坐上车的股友们开始吃不着葡萄便说葡萄酸,言之凿凿地表示,在不缺帕鲁的帕鲁大陆,没有任何一个赛道的领头羊能够长期享受垄断利润,勤奋的中国玩家们会把这些有钱赚的赛道都卷翻天,最后落得个大家都没有钱赚的局面。诚哉斯言,或许在未来的某一天,光模块赛道也会像如今的光伏和新能源赛道那样反内卷。落脚到今天的主题智能电动汽车上面,各路玩家在内卷上更是积累了丰富的经验,在电动化的上半场打完低烈度的治安战之后,在智能化的下半场又开启了高强度的淘汰赛灭国战。在智能化这条战线中,始终吸引着最大的火力,消耗着最多的资源。没有最卷,只有更卷,头部玩家们24 年齐刷刷转型端到端,在挖掘完传统端到端方案的潜力之后,25 年又开辟出基于强化学习的端到端、视觉语言动作模型VLA、世界行为模型WA 三条端到端2.0 技术路线。除了在算法上精进探索,这帮硬汉还马不停蹄地纷纷推出了自家的智能驾驶芯片。在英伟达雷神Thor、高通Ride、Mobileye EyeQ6、地平线征程6、华为晟腾之外,蔚来量产了神玑NX9031,小鹏量产了图灵AI 芯片,理想的马赫M100、Momenta 未知代号的芯片也相继进入了装车测试阶段。在有那么多重磅玩家和超强实力选手的局面下,为什么蔚小理这些新势力车企和Momenta 这类智驾方案供应商还敢于亮剑,做自己的智驾芯片呢?

1   软硬协同是标准答案

天降猛男马斯克说,答案就是你眼前所看到的一切,而关键是如何提出正确的问题。在领域,答案是特斯拉成为了全球的标杆,华为成为了本土的遥遥领先,正确的问题是,他们是如何实现的?这个问题的标准答案是软硬协同。拿特斯拉来说,它已经量产了两代用于FSD 的AI 推理芯片-AI 3 和AI 4,并完成了第三代芯片AI 5 的设计,此外,它还建立了全球(车圈)最大的数据中心,建立了深度的软硬芯云一体能力。华为同样不遑多让,甚至做到了百尺竿头、更进一步,它不仅有用于ADS 的晟腾AI 推理芯片,还有用于云端训练的昇腾AI 训练芯片,在硬件层面,依靠光学领域的多年深耕,华为还自研了激光雷达、毫米波雷达、激光视觉传感器。

1761741779297874.png

图片来源:马斯克访谈

就像苹果在智能手机上示范的、华为和特斯拉在上示范的软硬协同范式一样,各路从事智驾算法全栈自研的玩家纷纷把大手伸向芯片领域,背后相似的逻辑在于,自动驾驶系统作为复杂度极高且软硬一体的系统工程,软件与硬件的深度结合对系统性能至关重要。只有软硬件深度的协同,从算法中来,到算法中去,基于对算法趋势与应用场景的前瞻判断设计符合自家算法特点的芯片,针对自家特色的算法进行芯片的特定优化,提升性价比和算力的效率,才能实现极致的体验、深度的优化与创新。

1761741847666718.png

图片来源:地平线

除了提升系统当下的体验,站在更长远的视角下,自动驾驶系统必将在未来几年内不断提升等级,从L2++ 走向L3、L4,算法玩家们进入芯片设计领域,可以以算法为矛、芯片为盾,构建起适应智驾技术快速迭代的动态体系,在这条长长的赛道上通过芯片架构的进化保障技术路线的主导权。如果将自家的算法绑定在英伟达等供应商的通用芯片的架构下,车企的算法突破就会受限于这类芯片的通用设计,选择自研,车企就可以根据自家算法的特点进行硬件层面的深度定制,摆脱通用芯片的生态锁定,将技术差异化的主动权牢牢地抓在自己的手里。

1761741899297391.png

图片来源:元戎启行

2   应对AI芯片的成本压力

除了基于芯片和算法的深度软硬协同优化实现极致性能,自研智驾芯片的第二条理由在于控制成本。有些人企图拿明朝的剑斩清朝的贪官,从目前大多数车企使用的英伟达Thor-U单片价格在1000 美金左右的事实出发,认为将来用于自动驾驶车辆车端推理的AI 芯片的成本最多也就是千把美金,咬咬牙还是可以承受的。这种看法真的有些刻舟求剑了。

伴随着L2++ 级辅助驾驶向L3/L4 自动驾驶的进阶,智能驾驶系统对芯片算力的需求水涨船高,以至于用于高等级自动驾驶系统的智驾芯片的成本压力也越来越大了。还是拿事实说话吧,目前,在迈向端到端2.0 方案的过程中,有部分企业选择了泛化性能极强、场景理解能力极好的VLA 技术路线,这种方案可以非常取巧地借用AI 巨头训练出来的多模态大语言模型,利用大语言模型的理解能力和推理能力应对复杂的驾驶场景,但是,欲戴皇冠,必承其重,选择使用上知天文下知地理、能吟诗作赋的大语言模型,也势必要承受其带来的算力压力和成本。

1761741989290756.png

图片来源:小米

根据公开消息,在国内探索VLA 路线的代表企业里,除了有自家图灵AI 芯片的小鹏,理想、元戎启行和小米均采用了英伟达的Thor-U,单颗价格高达1000美金。关键不在于这1000 美金,问题在于1000 美金只是下限。这颗芯片算力只有700TOPS,理想汽车用尽了手段,才不过将4B 参数的MindVLA 推理频率做到了10 Hz,而4B 参数的VLA、10 Hz 的推理频率显然无法满足L3 级自动驾驶的要求,更不用提L4 了。如果大家试用过DeepSeek R1 的7B、14B、32B、70B 模型和671B 满血版模型,就会对参数规模和模型能力的关系有非常明显的体感,7B 模型给人的感觉就是学前班幼儿园,到了32B 才能体会出其能力背后的思维链。

目前,MindVLA 的参数规模虽然相较于其之前的端到端方案有了大幅度的提升,但这种参数级别的VLA 依然不足以兑现足够精确的驾驶环境理解能力。只有部署百亿参数VLA,方能兑现高等级自动驾驶服务。而且,很多场景对实时性有着极高的要求,紧急场景甚至要求毫秒级反应,10 Hz 的频率绝对达不到L3 的要求。也就是说,真能兑现高级自动驾驶服务的VLA 方案或许需要几千TOPS 的算力,据有关媒体披露的数据,算力在2000TOPS 左右的英伟达AGX Thor 的价格高达3466美元!

等自动驾驶系统真的发展到了L3 和L4 阶段,如果还依靠英伟达、高通这些外部供应商提供的芯片,名为甲方实则为乙方的车企们基本上不可能通过议价消化车端AI 芯片的成本压力。自研芯片不仅可以“拿研发换毛利”,打掉英伟达、高通这些芯片巨头动辄百分之八九十的超高毛利,还可以通过对特定算法和传感器方案的深度定制,实现算法的极致高效,进一步降低芯片的成本。

1761742060182136.png

图片来源:理想汽车

3   写在最后

芯片本身是一个资本密集型、技术密集型的高门槛行业,是一条需要坚持长期主义的赛道。没有三代产品的摸索,基本上不可能将产品打磨得比较完善。所以,蔚小理在宣传自己的第一代芯片时,动不动比肩英伟达,这样的话听听就算了。不过,这些新势力车企纷纷下场造芯片,一方面证实了他们在自动驾驶算法上的领先地位,另一方面也昭示着,一些逐渐“真正自研”出自家自动驾驶算法的传统车企做智驾芯片的时间也不远了。

(本文来源于《EEPW》


评论


相关推荐

技术专区

关闭