首页  资讯  商机   下载  拆解   高校  招聘   杂志  会展  EETV  百科   问答  电路图  工程师手册   Datasheet  100例   活动中心  E周刊阅读   样片申请
EEPW首页 >> 主题列表 >> 大语言模型推理

大语言模型推理 文章 进入大语言模型推理技术社区

芯原超低能耗NPU可为移动端大语言模型推理提供超40 TOPS算力

  • 芯原股份(芯原)近日宣布其超低能耗且高性能的神经网络处理器(NPU)IP现已支持在移动端进行大语言模型(LLM)推理,AI算力可扩展至40 TOPS以上。该高能效NPU架构专为满足移动平台日益增长的生成式AI需求而设计,不仅能够为AI PC等终端设备提供强劲算力支持,而且能够应对智慧手机等移动终端对低能耗更为严苛的挑战。芯原的超低能耗NPU IP具备高度可配置、可扩展的架构,支持混合精度计算、稀疏化优化和并行处理。其设计融合了高效的内存管理与稀疏感知加速技术,显著降低计算负载与延迟,确保AI处理流畅、响应
  • 关键字: 芯原  NPU  大语言模型推理  NPU IP  
共1条 1/1 1

大语言模型推理介绍

您好,目前还没有人创建词条大语言模型推理!
欢迎您创建该词条,阐述对大语言模型推理的理解,并与今后在此搜索大语言模型推理的朋友们分享。    创建词条

热门主题

树莓派    linux   
关于我们 - 广告服务 - 企业会员服务 - 网站地图 - 联系我们 - 征稿 - 友情链接 - 手机EEPW
Copyright ©2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《电子产品世界》杂志社 版权所有 北京东晓国际技术信息咨询有限公司
备案 京ICP备12027778号-2 北京市公安局备案:1101082052    京公网安备11010802012473