基于神经网络的智能DPD引擎方法
ChatGPT 由 OpenAI 于 2022 年 11 月推出,成为采用速度最快的软件产品之一,展示了人工智能 (AI) 的潜力。机器学习 (ML) 是人工智能的一个子集,它正在通过支持决策和数据分析等任务来改变行业。在通信领域,人工智能和机器学习正在推进数字预失真 (DPD),这是一种对于减少信号失真和提高功率放大器 (PA) 效率至关重要的技术。
传统的 DPD 模型可能会在 5G 等现代通信系统中遇到非线性和记忆效应的问题。他们假设 PA 的行为是静态的且无内存的,依赖于仅考虑瞬时输入输出关系的多项式模型。
然而,人工智能和机器学习擅长学习复杂的模式,提供更精确的解决方案。本文介绍了一种基于人工神经网络的DPD框架,该框架利用PA数据来减少增益/相位误差,提高效率,提高频谱性能,超越传统方法。
提高 PA 效率:数字预失真与 AI 创新的结合
数字预失真是一项关键技术,使功率放大器能够在饱和区域附近高效运行而不影响线性度。通过扩展 PA 的线性工作范围,DPD 使射频 (RF) 设计人员能够利用非线性 PA 的效率,同时保持正交频分复用 (OFDM) 等复杂调制方案所需的发射信号线性度。
DPD 的核心是引入预失真器系数,这些系数是通过对 PA 的反幅度到幅度 (AM-to-AM) 和幅度到相位 (AM-to-PM) 特性进行建模而得出的。该过程通过在输入波形中引入精确的抗失真来有效补偿 PA 的非线性。因此,DPD 提高了信号质量,同时使 PA 能够以最高效率运行。
文章“简化您的5G基站收发器发射机阵容、设计和评估”详细讨论了DPD算法,以及ADI的ADRV9040射频收发器如何为设计和实现提供简化的硬件平台。图1说明了用于线性化PA响应的DPD概念。

功率放大器表现出接近饱和的非线性,导致信号失真、频谱重新增长和效率降低,特别是在具有 I/Q 不平衡和记忆效应等损伤的高带宽系统中。人工智能和机器学习,特别是神经网络 (NN),通过对 PA 失真进行建模和动态优化预失真,提供了一种变革性的解决方案。这种人工智能驱动的方法提高了效率和适应性,超越了传统方法,同时平衡了性能和计算复杂性。
使用神经网络模型优化 DPD 引擎:提出的游戏规则改变者框架
人工神经网络是人工智能的基石,特别是在深度学习中,旨在克服传统机器学习算法的局限性。受人脑处理信息能力的启发,神经网络擅长识别模式、学习和决策,使其成为解决复杂非线性问题的理想选择。例如,在 5G LTE 系统中,使用基于 NN 的 DPD 方法可以有效解决 I/Q 不平衡、相移、直流偏移、串扰和 PA 非线性等挑战。
与基于多项式的 DPD 解决方案不同,后者需要广泛的系统力学知识并在可扩展性方面遇到困难,NN 模型擅长以更少的约束处理复杂的非线性行为。本节介绍一个拟议的NN DPD框架,以减轻非线性和发射机损伤。
该过程涉及三个关键步骤:表征 PA 并收集大量数据,训练后失真神经网络模型,以及部署具有性能监控和调整的模型。通过利用机器学习,这种方法将大型数据集转化为可作的见解,从而为现代通信挑战提供强大、可扩展的解决方案。
第 1 步:PA 表征数据收集
为了设计和实施用于优化无线功率放大器的 AI/ML 模型,收集全面、高质量的表征数据以准确反映 PA 在不同条件下的实际性能至关重要。图 2 显示了一个示例设置,可用于 PA 表征数据收集工作。

图2所示的台式配置允许通过提取S参数、输出功率、功率附加效率(PAE)、输入阻抗、输入回波损耗、功率增益、AM到PM转换等参数来进行完整的表征。表 1 提供了用于输入模型的数据点的完整列表。然而,值得注意的是,模型的维度会影响其响应时间。此外,捕获的数据必须先数字化,然后才能在训练过程中使用。

这种严格而系统的数据收集方法为开发能够准确预测和优化 PA 性能的 AI/ML 模型奠定了基础。通过利用这个全面的数据集,设计人员可以实现可靠、高效的无线通信系统。
第 2 步:模型训练
模型训练过程包括将表 1 中收集的信号(少量或全部)馈入该系统,并通过损失函数优化 DPD 模型以最大限度地减少误差。神经网络架构由相互连接的节点层(例如人工神经元)组成,组织成主要的核心组件(图3和表2)。


在训练过程中,隐藏层向前传播数据,同时通过使用梯度下降的反向传播来优化权重和偏差。可以调整网络结构,以包括更多的神经元来表示高度非线性组件,或包括更少的神经元来表示更平滑的元。
虽然深入讨论用于创建有效且可扩展的 AI 模型训练环境的最佳 AI 硬件、软件和工具超出了本文的范围,但我们建议 AI 工程师探索 KNIME,这是一个用于数据分析和机器学习的无代码平台。KNIME 具有图形用户界面 (GUI),使用户能够通过简单地拖放节点来设计工作流程,无需广泛的编码知识。这些工作流程高度可视化且易于理解,使该平台可供广大受众使用。
对于那些喜欢基于 Python 的方法的人来说,带有 TensorFlow 的 Keras 提供了显着的优势。这种组合将 Keras 的简单性与 TensorFlow 的稳健性和可扩展性融为一体,使其成为从实验到生产级深度学习应用程序等项目的绝佳选择。
在 PA 表征工作中,将收集数百万个样本——70% 将用于训练,30% 保留用于测试和验证,以评估模型模仿 PA 行为的能力。模型性能将使用准确性、精确度、召回率、F1 分数和 ROC-AUC 等指标进行评估。
第 3 步:神经网络模型验证和部署
部署过程首先验证模型以确保稳健性和准确性,使用验证数据在训练和停止标准期间监控质量,而测试数据则独立评估准确性和泛化性。解决过度拟合和欠拟合对于确保模型能够很好地泛化到新数据至关重要。
通过限制层数、隐藏神经元或参数数以简化模型、扩展训练数据集,甚至通过修剪(例如,删除对性能没有显着贡献的冗余神经元)来增强泛化,可以缓解过度拟合。另一方面,通过增加隐藏神经元以提高模型复杂性和/或调整超参数(例如学习率、批量大小或正则化强度)来提高性能,从而解决缓解欠拟合的问题。
ML 工程师必须平衡这些策略并迭代评估 DPD 模型的性能,以实现稳健且可通用的模型,同时密切关注模型的执行速度。图 4 说明了神经网络 DPD 模型评估系统架构的高级框图。

无论如何,确定隐藏神经元的最佳数量需要在训练过程中进行实证研究、反复试验或自适应方法。这些调整确保神经网络在复杂性和性能之间实现适当的平衡,从而实现高效且有效的模型部署。边缘人工智能嵌入式MCU(例如ADI的MAX78000卷积神经网络(CNN)加速器芯片)可以促进该模型的部署。
将 AI/ML 与 DPD 系统集成:挑战与机遇
将人工智能和机器学习集成到 DPD 系统中具有巨大的改进潜力,但也带来了实际挑战。DPD 系统需要低延迟和高处理速度,这对于计算密集型 ML 模型来说可能很难实现。此外,温度波动和硬件老化等动态作条件需要实时学习或迁移学习等自适应技术来保持最佳性能。
能源效率是另一个关键因素,因为 AI/ML 模型,尤其是深度学习架构,通常比传统的 DPD 方法消耗更多的功率,因此不太适合能源敏感环境。未来的实验应该使用轻量级神经网络进行,轻量级神经网络是标准神经网络的优化版本。
这些轻量级神经网络的设计具有更少的参数、更少的计算量并且内存效率更高。它们对于计算资源有限的应用特别有用,例如移动和物联网 (IoT) 设备或其他资源有限的系统。
许多机器学习模型(尤其是深度神经网络)缺乏可解释性,使其与 DPD 系统的集成更加复杂。当决策过程不透明时,调试和优化具有挑战性,因为这些模型将复杂的作简化为权重、偏差和激活函数。
结论:通过 AI/ML 进行 DPD 演进
随着大规模 MIMO 等 5G 技术需要更低的功耗和更高的精度,DPD 系统必须不断发展以应对新的复杂性。AI/ML 将有助于通过自适应学习和混合建模等创新实现可扩展、节能的解决方案。神经网络能够对复杂的非线性和记忆效应进行建模,通过在没有显式数学公式的情况下近似非线性函数来简化 DPD 系统设计。
AI/ML 的集成提高了电源效率,使 PA 能够更接近饱和地运行,同时通过非线性 PA 降低成本。尽管面临挑战,人工智能/机器学习驱动的系统在提高 DPD 系统的准确性、适应性和可扩展性方面仍具有巨大的前景。
将传统的基于多项式的方法与 AI/ML 技术相结合的混合方法提供了平衡的解决方案,将经典模型的可解释性与 AI/ML 的高级功能相结合。通过创新策略应对这些挑战,人工智能/机器学习可以推动 DPD 系统的变革性进步,支持现代通信技术的发展。










评论