3纳米光学DSP满足数据中心人工智能的速度需求
在数据中心,可插拔式光收发器对于管理人工智能所需的海量数据流至关重要,将电信号转换为光子,在服务器机架间传递,并再转化为电力。
这些光收发器的核心都是一个高性能数字信号处理器(DSP)。随着AI训练和推理日益耗费带宽和功耗,芯片制造商正在升级这些光DSP,以实现更快更高效的运行。
Marvell Technology 推出了一款 PAM4 DSP,能够将 1.6 Tb/s 光收发机的功耗降低超过 20%,部分原因是采用了更先进的 3 nm 制造工艺。Ara 芯片集成了八条 200-Gb/s 电线和八条 200-Gb/s 光通道,实现高达 1.6 Tb/s 的吞吐量,且模块体积紧凑且标准化。据公司介绍,它还集成了激光调制驱动器,以降低PCB设计复杂度、功耗和成本。
Marvell表示,基于其200 Gb/s SerDes技术,Ara设计用于八脚制小形态可插拔(OSFP)和四模小型可插拔双密度(QSFP-DD)模块,这些模块广泛应用于以太网、InfiniBand及其他AI计算结构中。
“Ara 通过利用先进的 3nm 技术实现显著功耗降低,树立了行业新标准,推动了 AI 基础设施中 1.6 Tb/s 连接技术的批量采用,”Marvell 光连接产品市场副习解释道。
Marvell推出了Ara芯片,正值AI推动AI数据中心对高带宽连接需求的推动。
为了训练最先进的大型语言模型(LLM),超大规模化者和其他科技巨头正在构建由数千个图形处理单元(GPU)或其他人工智能芯片组成的集群,以及大量内存。因此,这些公司需要更快、更密集的连接方式,能够传输生成式人工智能使用的大量数据——无论是在服务器机架内部还是机架之间。
但由于将信号推送至数米铜缆中,每秒传输极多数据在这些服务器列之间传输极多数据并不切实际。由于电力传输距离越远,耗电越多,保持冷却成本也会很高。因此,光互连被广泛用于数据中心的机架对机架和服务器到交换机的连接,利用可插拔的收发器将电信号转换为光,Marvell表示。
虽然通过光传输数据比用电更高效,但这些可插拔模块核心的数字信号处理器需要相对较大的功率才能在高带宽下运行。例如,NVIDIA估计,拥有40万块GPU的数据中心中所有光收发器将消耗多达40兆瓦的电力。在这些热量对系统性能造成影响之前散发这些热量并非易事。
通过升级到3纳米工艺节点并将激光驱动器直接集成在芯片上,Marvell表示,Ara DSP相比上一代光DSP可实现每个可插拔模块的功耗节省超过20%。

Ara DSP支持八个200-Gb/s PAM4电气接口和八个200-Gb/s光接口,总吞吐量为1.6 Tb/s。
Marvell表示,这些改进降低了散热问题和系统级散热成本,而这些成本正成为更重要的技术挑战,因为这些模块需要采用与USB棒相似的形态。ARA设计用于驱动网络交换机前面板上的800 Gb/s和1.6 Tb/s端口,使用标准PCB走线长度,无需特殊冷却或PCB重新设计以保持信号完整性。
据Dell'Oro集团介绍,可插拔式收发器市场正在快速增长。这家市场调研公司预计,截至2028年,800 Gb/s和1.6 Tb/s收发机的出货量将以每年超过35%的速度增长。
Ara:应对高带宽AI连接的需求
Marvell表示,Ara DSP的能效使系统设计师能够在保持对当今数据中心至关重要的紧凑功耗范围内的同时,获得高带宽连接。
该芯片设计支持网络交换机、网卡(NIC)和处理器内的高密度200 Gb/s I/O接口,同时确保与前一代的向后兼容性。PAM4光DSP支持多种光模块格式,包括1.6T DR8、DR4.2、2xFR4、FR8和LR8,使其能够适应多种不同的数据中心拓扑和AI计算节点互连。
Ara 采用串接前向纠错(FEC),符合最新的以太网和 Infiniband 标准,提升了在恶劣链路条件下的比特错误率(BER)容忍度。它还支持 8 × 8 任意到任一的交叉开关,实现高速 I/O 的路由灵活性。此外,Marvell表示,他们共同设计了一款超阻抗放大器(TIA)芯片,以补充Ara DSP,为高达200 Gb/s的光传输通道提供更好的信噪比和线性度。
Ara 处理器还具备实时诊断功能,包括信噪比(SNR)监测、眼图分析以及主机端和线路端接口的回环功能。
市场调研公司LightCounting的特约分析师Bob Wheeler估计,这些光互连核心的PAM4 DSP将在2029年前增长三倍,达到每年1.27亿台。他表示,这些光DSP“在可预见的未来仍将是连接数据中心内资产的主要光学技术。”他补充说,Marvell的Ara芯片表明“PAM4技术持续发展以应对AI基础设施的挑战。”
鉴于数据中心对高带宽连接需求的不断增长,Ara 有潜力成为 AI 热潮的关键构建模块。但光连接领域的其他创新也在筹备中。
Marvell及其半导体行业的许多竞争对手也在开发“共封光学”技术,这些技术可以集成在与其网络交换芯片相同的基板上,从而消除了对可插拔光学的需求。
公司还计划将硅光子芯片联合封装为GPU及其他AI芯片,利用高速SerDes、芯片对芯片以及2.5D和3D先进封装技术。
通过将光学元件直接置于封装内部,GPU和其他AI芯片可以在更高的带宽和更远距离下相互连接。因此,不同服务器机架中的AI芯片能够以最佳的延迟和功耗进行通信,相较于连接同一机架芯片和PCB铜线的被动铜缆。












评论