人工智能市场已经在整合吗?

乔恩·佩迪 (Jon Peddie) 指出,“自 2006 年以来,已向初创公司投资了超过 135 亿美元。人工智能处理器初创公司的兴奋程度和投资水平在 2017 年至 2021 年达到顶峰,有 36 家新公司进入该领域。您可以在 Jon Peddie Research“人工智能处理器市场发展报告”中找到更多详细信息。它还指出,进入这个市场的新公司越来越少,而且正在发生整合,供应商抢占人工智能公司以改进自己的人工智能产品。
乔恩还指出,“目前,美国在人工智能软件和硬件方面都保持着强势地位。但这种领先优势并不能保证。持续的贸易紧张局势给美国公司带来了真正的压力,尤其是现在像 DeepSeek 这样的公司和几家中国人工智能芯片制造商正在展示他们的能力。
他补充道,“美国供应商很清楚这种情况,但现任政府似乎将注意力集中在其他地方。这使得这些公司在很大程度上只能依靠自己,需要更快地行动、更精简地思考,并提供更高效、更具成本效益的技术才能保持领先地位。
美国政府向中国提供的最新礼物是允许英伟达将其 H20 GPGPU 出售给中国。从理论上讲,H20 的功能不如该公司针对大型语言模型 (LLM) 的高端“Hopper”H200(图 2)。多个 H200 GPGPU 可以通过 NVLink 连接,NVLink 使用 NVLink 交换机扩展到更大的配置。

16,896 个 CUDA 内核
141 GB HBM3e 内存
超过 4.8 TB/s 的内存带宽
超过 4 petaFLOPS 的 FP8 性能
许多人在 NVIDIA 的成功中忽视的是,它的软件比硬件更重要。诚然,该软件离不开硬件,但它使工程师和程序员能够针对 Jetson Nano 的一切,从边缘计算到基于服务器的云和数据中心解决方案。
在服务器端,通过向网络组合添加更多部件来扩展部件,因此 H20 和 H200 的混合之间的唯一区别是整体性能和容量。只需添加更多硬件来增加这些,这就是为什么即使允许销售 H20 也不是人工智能开发的真正限制。
专注于边缘
关于人工智能的大部分讨论都集中在 H20 和 H200 所在的云和数据中心。然而,一个重要的趋势是将更多的人工智能计算放在边缘,要么减轻基于云的人工智能的使用,要么与在本地完成的所有计算完全解耦。不少人工智能初创公司都专注于这一领域。
小型语言模型 (SML) 以及可以在边缘处理 LLM 的系统现已上市。通常的工程设计权衡在功率、价格和性能方面突然出现,但新的人工智能硬件已经显着改变了设计方程式。
与芯片供应商一样,电路板和模块供应商已将人工智能纳入其产品组合中。这有助于在边缘添加人工智能,因为人工智能芯片的集成需要更苛刻的设计和实施过程。
随着人工智能的炒作,工程师和公司需要记住,并非所有问题都需要人工智能,或者通过在产品中添加人工智能来改善。同样,在工作、工作流程、设计、测试和生产过程以及最终产品和服务中使用人工智能之间也存在差异。LLM 或 SLM 形式的人工智能可能在一个领域起作用,但在另一个领域不起作用。
评论