新闻中心

EEPW首页 > 智能计算 > 市场分析 > DeepSeek只是前菜,LPU才是王炸

DeepSeek只是前菜,LPU才是王炸

作者: 时间:2025-02-13 来源:半导体产业纵横 收藏

当下,人工智能蓬勃发展,创新技术不断涌出,整个行业正经历着一场意义深远的变革。

本文引用地址:https://www.eepw.com.cn/article/202502/466907.htm

而这其中, 的出现格外引人注目。 凭借其卓越的性能和强大的成本优势,迅速在全球范围内圈粉无数,掀起了一股使用热潮。而 ,作为专为语言处理任务量身定制的硬件处理器,以其区别于传统 GPU 的创新架构、令人惊叹的性能表现和超低的成本优势,成为了 AI 领域的新宠。

的结合,或许会为这场变革注入新的动力。

LPU 是什么?

2024 年 2 月,由谷歌 TPU 设计者 Jonathan Ross 创立的 Groq 公司发布新一代 LPU,实测性能引发行业震动:在 Meta Llama 2-70B 推理任务中,其 LPU 相较英伟达 H100 实现 10 倍性能提升,推理成本降低 80%。而 LPU 本质为减少计算中内存调用次数,从而实现推理效率的提升。对推理芯片而言,更高性能、更低成本的 LPU,提供了一个新的技术路径选项。

LPU,全称 Language Processing Unitix,是一种专门为语言处理任务设计的硬件处理器。它与我们熟知的 GPU(Graphics Processing Unit,图形处理器)有着本质的区别。GPU 最初是为处理图形渲染任务而设计的,在并行计算方面表现出色,因此后来被广泛应用于人工智能领域的模型训练和推理。然而,LPU 则是专门针对语言处理任务进行优化的,旨在更高效地处理文本数据,执行诸如自然语言理解、文本生成等任务。

从硬件架构来看,LPU 有着独特的设计,采用了时序指令集计算机架构。同时,LPU 不需要芯片外内存,这是其区别于传统硬件架构的重要特点。传统的 GPU 在运行过程中,需要依赖高速的数据传输和大量的芯片外内存来存储和处理数据,这不仅增加了硬件成本,还可能在数据传输过程中产生延迟,影响系统性能。而 LPU 使用的是 SRAM(Static Random - Access Memory,静态随机存取存储器),其速度比 GPU 所用的存储器快约 20 倍。这种高速的内存使得 LPU 在处理数据时能够更快地读取和写入信息,大大提高了处理效率。

在能效方面,LPU 通过减少多线程管理的开销和避免核心资源的未充分利用,实现了更高的每瓦特计算性能,在执行推理任务时,无需像 GPU 那样频繁从内存加载数据,消耗的电量也低于英伟达的 GPU。

Groq 公司作为 LPU 的重要推动者,公布的 LPU 性能令人惊叹。与当前行业内的领先模型相比,LPU 展现出了巨大的优势。例如,在与 GPT - 4 的对比中,Groq 的 LPU 比 GPT - 4 快 18 倍,在处理速度上达到了每秒 500 token 的惊人成绩,打破了行业纪录,其性能是英伟达 GPU 的 10 倍。而且,不同于英伟达 GPU 对高速数据传输和高带宽存储器(HBM)的依赖,Groq 的 LPU 系统中没有采用 HBM,而是通过优化的 SRAM 设计,实现了高效的数据处理。这种独特的设计使得 LPU 在保证高性能的同时,还降低了硬件成本和系统复杂性。

这一突破也凸显了计算模式的潜在转变,即在处理基于语言的任务时,LPU 可以提供一种专业化、更高效的替代方案,挑战传统上占主导地位的 GPU。

国产企业布局 LPU

国产 LPU 当然也受到市场关注。

目前,清华系的无问芯穹已研发出全球首个基于 FPGA(现场可编程逻辑门阵列)的大模型处理器,称其为无穹 LPU,通过大模型高效压缩的软硬件协同优化技术,使得 LLaMA2-7B 模型的 FPGA 部署成本从 4 块卡减少至 1 块卡,并且性价比与能效比均高于同等工艺 GPU,即展示「一张卡跑大模型」。

无问芯穹研发的端侧大模型推理处理器 LPU 采用异构计算技术。其核心目标是提供如水电煤般便捷的算力服务,解决当前市场中算力资源匮乏的问题。目前已通过适配多种 AI 芯片,实现不同模型高效并行处理,根据无问芯穹的内部测试数据,这款芯片在大规模模型推理场景中,算力成本下降高达 90%,为国内算力之困开辟了一条前路。

据悉,无问芯穹成立于 2023 年 5 月,创始团队来自清华大学电子工程系,致力于成为大模型落地过程中的"M×N"中间层,以打造大模型软硬件一体化方案,链接上下游,建立 AGI(通用人工智能)时代大模型基础设施。

DeepSeek 利好上游,将推动 AI 大规模应用

2025 年 1 月 20 日,DeepSeek 正式发布 DeepSeek-R1 模型,在数学、代码、自然语言推理等任务上,性能成功比肩 OpenAI-o1 正式版,在 1 月 24 日国外大模型排名 Arena 上,DeepSeek-R1 基准测试升至全类别大模型第三,在风格控制类模型分类中与 OpenAI-o1 并列第一,展现出强大的技术实力。仅仅一周后,DeepSeek 在中国区及美区苹果 App Store 免费榜均占据首位,成为首个同期在中国和美区苹果 App Store 占据第一位的中国应用,用户量在短时间内迅速攀升,在全球范围内掀起了使用热潮。

DeepSeek 发展速度之快令人咋舌,日活数据的增长堪称「火箭式」上升。前几日,DeepSeek 的日活刚突破 2000 万,然而不到一周的时间,日活已经飙升至 3000 万,短短 7 天内用户增长一个亿。与之形成鲜明对比的是,曾经风靡全球的 ChatGPT 达到同样的用户增长规模需要 2 个月的时间。DeepSeek 的快速崛起,彰显了其在人工智能领域的强大竞争力和市场吸引力。

随着 DeepSeek 用户的大规模增长,对上游做算力的公司产生了显著的利好影响。算力作为人工智能运行的基础支撑,是模型训练和推理得以实现的关键。DeepSeek 的火爆意味着对算力的需求呈指数级增长,这为上游的算力供应商提供了广阔的市场空间。

值得一提的是,三家基础电信企业均全面接入 DeepSeek 开源大模型。这一举措不仅进一步推动了 DeepSeek 的广泛应用,还为电信企业自身的业务发展带来了新的机遇。电信企业拥有丰富的网络资源和庞大的用户基础,接入 DeepSeek 大模型后,可以将人工智能技术融入到通信服务、智能客服、大数据分析等多个业务领域,提升服务质量和用户体验,同时也为自身在人工智能时代的转型发展奠定了坚实的基础。

在市场层面,DeepSeek 的成功也引发了资本的关注。大量的投资涌入与 DeepSeek 相关的产业链,从算力支持到算法优化,再到应用开发,各个环节都成为了资本追逐的热点。这不仅促进了相关企业的技术研发和业务拓展,还加速了整个行业的发展进程。

之所以 DeepSeek 如此受到关注,除了其在性能上的卓越表现外,还在于其具有强大的成本优势。DeepSeek 模型厉害的地方在于,整个训练仅花费了 557.6 万美元,在 2048xH800 集群上运行 55 天完成。性能却能和 OpenAI 的顶尖模型 ChatGPT-o1 比肩,甚至在某些领域还强一点。

这笔费用是什么概念呢?Anthropic 的 CEO 曾透露,GPT-4o 这样的模型训练成本约为 1 亿美元。而目前正在开发的 AI 大模型训练成本可能高达 10 亿美元。他还预测,未来三年内,AI 大模型的训练成本将上升至 100 亿美元甚至 1000 亿美元。换句话说,DeepSeek-V3 的这个成本几乎可以忽略不计。由于 OpenAI 的大模型成本巨大,在美国政府的支持下,甚至发起了总投资 5000 亿美元的星门计划来建设 AI 设施。

高性能低价平权之下,LPU 被看好

AI 基础设施建设的巨额成本一直是阻挡 AI 大规模应用的绊脚石。

DeepSeek-R1 具备高性能、低成本、开源三大属性。DeepSeek-R1 问世,其开源属性为企业提供了技术底座,如教育机构可基于开源代码定制学科知识库、教学场景交互逻辑等,人力资源机构也可针对招聘培训等垂直场景构建垂直助手。且 DeepSeek-R1 大模型单次训练和推理对算力的需求低,因此基于 DeepSeek-R1 二次训练的成本也更低,更有利于企业低成本训练及本地部署。简而言之,DeepSeek-R1 的突破性发展,直接降低了 AI 应用的研发落地成本,将加速 AI 技术在各行业的渗透。

如果说,DeepSeek 属于「核弹」级,那 LPU 就是「氢弹」级。据了解,美国 Groq 公司已经在自己的 LPU 芯片上实机运行 DeepSeek,效率比最新的 H100 快上一个量级,达到每秒 24000token。某种程度上,单纯靠堆砌硬件算力,实现智力的逻辑也将失效。随着硬件芯片制程逐渐到达瓶颈,后期人工智能主要靠算法和芯片架构优化推动。

而 DeepSeek 与 LPU 的结合标志着 AI 算力领域的重要变革,特别是在大语言模型(LLM)推理场景中展现出显著的技术突破和市场潜力。这种结合使得大语言模型在处理速度、成本控制和应用范围等方面都有了新的突破,为人工智能的发展开辟了新的道路。

作为 LPU 的主要供应商,美半导体初创公司 Groq 也受到了投资市场的看好。据了解,目前该公司已获得沙特阿拉伯 15 亿美元的承诺投资,以支持 Groq 扩建位于沙特达曼的 AI 推理基础设施。Groq 的达曼数据中心由该企业同石油巨头沙特阿美旗下子公司合作建设,目前该数据中心已包含 19000 个 Groq LPU(语言处理单元),可向 41 个国家的 40 亿用户提供服务。

另一方面,这也对英伟达和其他美国人工智能科技公司造成打击,三星电子和 SK 海力士预计将在快速增长的人工智能 (AI) 内存芯片业务中面临越来越多的不确定性。而这两家公司主要生产用于英伟达 GPU 的 HBM 芯片。SK 海力士 1 月份的数据比 12 月下跌了 19.3%。这是自 2023 年 4 月该公司开发出全球 12 层 HBM3 芯片以来,环比跌幅最大的一次。

当 LPU 技术将 AI 创作成本降至消费级硬件可承载范围,普通人使用 RTX 显卡即可运行百亿参数模型时,UGC 内容生产将迎来核爆式增长。这种生产力解放可能提前 10 年实现"人人都是创作者"的预言。

当 LPU 架构与神经拟态芯片结合后,个人设备的计算能力将得到质的飞跃。也许,未来的智能手机或笔记本电脑,借助这种技术,用户无需联网就能在本地快速运行复杂的语言模型,实现高效的个人工作流部署。



关键词: DeepSeek LPU

评论


技术专区

关闭