新闻中心

EEPW首页 > 智能计算 > 设计应用 > 人工智能市场已经在整合吗?

人工智能市场已经在整合吗?

—— Jon Peddie Research 的人工智能报告强调了人工智能趋势,包括人工智能初创公司的低迷和对边缘人工智能的更加关注。
作者: 时间:2025-08-06 来源:ED 收藏

几乎每个处理器芯片硬件供应商都至少有一款设备在其产品组合中集成了某种 (AI) 硬件加速。这可能是具有集成 AI 加速的片上系统 (SoC) 或专用 AI 加速器,通常针对特定应用程序(如处理流式视频)进行优化。

许多初创公司也在争夺工程师的心智份额(图 1)。许多公司提供的硬件解决方案可显着降低系统功耗要求,从而实现更复杂的边缘计算解决方案,这些解决方案可以实时处理语音和视频,而无需将内容传递到云端。

乔恩·佩迪研究
新的人工智能初创公司数量正在减少
1. 我们看到新的初创公司的数量有所减少。

乔恩·佩迪 (Jon Peddie) 指出,“自 2006 年以来,已向初创公司投资了超过 135 亿美元。人工智能处理器初创公司的兴奋程度和投资水平在 2017 年至 2021 年达到顶峰,有 36 家新公司进入该领域。您可以在 Jon Peddie Research“人工智能处理器市场发展报告”中找到更多详细信息。它还指出,进入这个市场的新公司越来越少,而且正在发生整合,供应商抢占人工智能公司以改进自己的人工智能产品。

乔恩还指出,“目前,美国在人工智能软件和硬件方面都保持着强势地位。但这种领先优势并不能保证。持续的贸易紧张局势给美国公司带来了真正的压力,尤其是现在像 DeepSeek 这样的公司和几家中国人工智能芯片制造商正在展示他们的能力。

他补充道,“美国供应商很清楚这种情况,但现任政府似乎将注意力集中在其他地方。这使得这些公司在很大程度上只能依靠自己,需要更快地行动、更精简地思考,并提供更高效、更具成本效益的技术才能保持领先地位。

美国政府向中国提供的最新礼物是允许英伟达将其 H20 GPGPU 出售给中国。从理论上讲,H20 的功能不如该公司针对大型语言模型 (LLM) 的高端“Hopper”H200(图 2)。多个 H200 GPGPU 可以通过 NVLink 连接,NVLink 使用 NVLink 交换机扩展到更大的配置。

英伟达
英伟达 HGX H200
2. NVIDIA 的 HGX H200 有八个支持 NVLink 的 GPGPU。
  • 16,896 个 CUDA 内核

  • 141 GB HBM3e 内存

  • 超过 4.8 TB/s 的内存带宽

  • 超过 4 petaFLOPS 的 FP8 性能

许多人在 NVIDIA 的成功中忽视的是,它的软件比硬件更重要。诚然,该软件离不开硬件,但它使工程师和程序员能够针对 Jetson Nano 的一切,从边缘计算到基于服务器的云和数据中心解决方案。

在服务器端,通过向网络组合添加更多部件来扩展部件,因此 H20 和 H200 的混合之间的唯一区别是整体性能和容量。只需添加更多硬件来增加这些,这就是为什么即使允许销售 H20 也不是人工智能开发的真正限制。

专注于边缘

关于人工智能的大部分讨论都集中在 H20 和 H200 所在的云和数据中心。然而,一个重要的趋势是将更多的人工智能计算放在边缘,要么减轻基于云的人工智能的使用,要么与在本地完成的所有计算完全解耦。不少人工智能初创公司都专注于这一领域。

小型语言模型 (SML) 以及可以在边缘处理 LLM 的系统现已上市。通常的工程设计权衡在功率、价格和性能方面突然出现,但新的人工智能硬件已经显着改变了设计方程式。

与芯片供应商一样,电路板和模块供应商已将人工智能纳入其产品组合中。这有助于在边缘添加人工智能,因为人工智能芯片的集成需要更苛刻的设计和实施过程。

随着人工智能的炒作,工程师和公司需要记住,并非所有问题都需要人工智能,或者通过在产品中添加人工智能来改善。同样,在工作、工作流程、设计、测试和生产过程以及最终产品和服务中使用人工智能之间也存在差异。LLM 或 SLM 形式的人工智能可能在一个领域起作用,但在另一个领域不起作用。



关键词: 人工智能

评论


相关推荐

技术专区

关闭