新闻中心

EEPW首页 > 智能计算 > 业界动态 > Microsoft推出可在常规CPU上运行的AI模型

Microsoft推出可在常规CPU上运行的AI模型

作者: 时间:2025-04-27 来源:Tech Xplore 收藏

Research 的一组计算机科学家与中国科学院大学的一位专家合作,推出了 的新 AI 模型,该模型在常规 CPU 而不是 GPU 上运行。研究人员在 arXiv 预印本服务器上发布了一篇论文,概述了新模型的构建方式、特性以及迄今为止在测试过程中的表现。

本文引用地址:https://www.eepw.com.cn/article/202504/469917.htm

在过去的几年里,LLM 风靡一时。ChatGPT 等模型已向全球用户开放,引入了智能聊天机器人的理念。它们中的大多数都有一个共同点,那就是它们都经过训练并在 GPU 芯片上运行。这是因为他们在使用大量数据进行训练时需要大量的计算能力。

最近,人们担心数据中心使用大量能源来支持所有用于各种目的的聊天机器人。在这项新的工作中,该团队找到了一种更智能的方式来处理这些数据,并且他们建立了一个模型来证明这一点。

运行 AI 模型最耗能的部分之一涉及权重的使用和存储方式,通常为 8 位或 16 位浮点数。这种方法涉及大量内存和 CPU 处理,这反过来又需要大量能量。在他们的新方法中,研究人员完全取消了浮点数的使用,而是建议使用他们所描述的 1 位架构。

在他们的创新中,仅使用三个值来存储和处理权重:-1、0 和 1。这允许在处理过程中只使用简单的加法和减法 - 这些作可以使用基于 CPU 的计算机轻松完成。

对新模型类型的测试表明,它能够在同类规模中与基于 GPU 的模型相媲美,甚至超越了其中一些模型,同时使用的内存要少得多,最终能耗也要低得多。

为了运行这样的模型,该团队为其创建了一个运行时环境。新环境称为 bitnet.cpp,旨在充分利用 1 位体系结构。

如果团队的说法成立,BitNet b1.58 2B4T 的开发可能会改变游戏规则。用户无需依赖海量数据农场,而是很快就可以在他们的计算机或手机上运行聊天机器人。除了减少能源需求外,本地化 LLM 处理还将大大提高隐私性,并允许在没有连接到 Internet 的情况下工作。

Microsoft introduces BitNet b1.58 2B4, an AI model that runs on regular CPUs

BitNet b1.58 2B4T 在性能与内存方面推进了帕累托前沿,该前沿是由 3B 参数下领先的开放权重 LLM 定义的,展示了卓越的效率。



评论


相关推荐

技术专区

关闭