首页 > 资讯 > 人工智能

基于神经网络的更智能DPD引擎方法

时间:2025-12-05 编辑:互联网大会 乌镇 来源:移动互联网应用

核心提示:由OpenAI推出的ChatGPT,成为采用速度最快的软件产品之一,展示了人工智能(AI)的潜力。机器学习(ML)是人工智能的一个子集,正在通过推动决策和数据分析等任务,正在改变行业。在通信领域,人工

由OpenAI推出的ChatGPT,成为采用速度最快的软件产品之一,展示了人工智能(AI)的潜力。机器学习(ML)是人工智能的一个子集,正在通过推动决策和数据分析等任务,正在改变行业。在通信领域,人工智能和机器学习正在推动数字预失真(DPD)技术的发展,这是一种减少信号失真和提升功率放大器(PA)效率的关键技术。

传统 DPD 模型在 5G 等现代通信系统中难以应对非线性特性和记忆效应。这类模型假设 PA 的工作特性是静态且无记忆的,依赖仅能描述瞬时输入输出关系的多项式模型,无法适配复杂场景需求。

而 AI 和 ML 擅长学习复杂模式,能够提供更精准的解决方案。本文介绍一种基于人工神经网络的 DPD 框架,该框架利用 PA 运行数据减少增益 / 相位误差、提升能效并优化频谱性能,性能表现超越传统方法。

提升 PA 能效:数字预失真与 AI 创新的融合

数字预失真是一种关键技术,使功率放大器在饱和区附近高效工作而不影响线性。通过扩展PA的线性工作范围,DPD使射频(RF)设计师能够利用非线性PA的效率,同时保持复杂调制方案(如正交频分复用(OFDM)所需的发射信号线性性。

DPD的核心工作原理是引入预失真系数,这些系数是通过模拟PA的反振幅对振幅(AM-to-AM)和振幅-相位(AM-to-PM)特性得出的。该过程通过在输入波形中引入精确的抗失真,有效补偿了PA的非线性特性。因此,DPD在提升信号质量的同时,使PA能够达到峰值效率。

1764654130267744.png

1. DPD 线性化 PA 响应的通用概念:(a) 典型 AM-to-AM 曲线,绿色区域为线性工作区;(b) DPD 提升 PA 能效的基本原理。

功率放大器在接近饱和时表现出非线性,导致信号失真、频谱重新增长和效率下降,尤其是在高带宽系统中,如I/Q不平衡和记忆效应等问题。人工智能和机器学习,尤其是神经网络(NNs),通过建模PA失真并动态优化预失真,提供了变革性的解决方案。这种由人工智能驱动的方法提升了效率和适应性,超越传统方法,同时在性能与计算复杂性之间取得平衡。

利用神经网络模型优化 DPD 引擎:一种突破性框架

人工神经网络是人工智能的基石,尤其是在深度学习领域,旨在克服传统机器学习算法的局限性。受人脑信息处理能力的启发,神经网络擅长识别模式、学习和决策,非常适合解决复杂且非线性的问题。例如,在5G LTE系统中,输入/质量不平衡、相位偏移、直流偏移、串扰和PA非线性等问题,可以通过基于NN的DPD方法有效解决。

与基于多项式的DPD解决方案不同,后者需要广泛了解系统力学知识且难以扩展,神经网络模型在处理复杂非线性行为且约束更少方面表现出色。本节介绍了一个拟议的神经网络DPD框架,以减轻非线性和发射器损伤。

该过程包括三个关键步骤:表征PA并收集大量数据,训练后失真者神经网络模型,以及部署该模型并进行性能监控和调整。通过利用机器学习,这种方法将大型数据集转化为可作的洞察,为现代通信挑战提供稳健且可扩展的解决方案。

步骤1:PA表征数据收集

为了设计和实现用于优化无线功率放大器的AI/ML模型,收集全面且高质量的特性分析数据至关重要,这些数据准确反映PA在不同条件下的实际性能。图2展示了可用于PA表征数据收集工作的示例设置。

1764654305968419.png

2. 宽带PA特性分析的测量设置。

图2所示的台架配置允许通过提取S参数、输出功率、功率添加效率(PAE)、输入阻抗、输入回波损耗、功率增益、AM到PM转换等参数实现完整的表征。表1展示了模型输入数据点的全面列表。然而,需要注意的是,模型的维度会影响其响应时间。此外,捕获的数据必须数字化,才能用于训练过程。

a6809a8f-7d75-4c0a-bd84-bdbea8cc0cc3.png

这种严谨且系统的数据收集方法为开发能够准确预测和优化PA性能的AI/ML模型奠定了基础。通过利用这一全面的数据集,设计者能够实现可靠高效的无线通信系统。

步骤2:模型训练

模型训练过程包括将表1中收集的信号(部分或全部)输入该系统,并通过损耗函数优化DPD模型以最小化误差。神经网络架构由相互连接的节点层(例如人工神经元)组成,这些节点被组织为主要核心组件(图3和表2)。

1764654330839397.png

3. 深度学习中多类预测神经网络的架构。

cef08238-29cb-4d94-a7d6-5dae63e3a1be.png

训练过程中,隐藏层向前传播数据,而权重和偏差通过梯度下降的反向传播优化。网络结构可以调整,对于高度非线性成分包含更多神经元,或为更光滑的元素增加更多神经元。

虽然本文不在讨论创建有效且可扩展AI模型训练环境的最佳AI硬件、软件和工具,但我们建议AI工程师探索KNIME,一个无代码的数据分析和机器学习平台。KNIME 采用图形用户界面(GUI),允许用户只需拖放节点即可设计工作流程,无需大量编程知识。这些工作流程视觉化且易于理解,使平台对广泛受众开放。

对于偏好基于Python的方法的人来说,Keras搭配TensorFlow提供了显著优势。这种组合将 Keras 的简洁性与 TensorFlow 的稳健性和可扩展性相结合,使其成为从实验到生产级深度学习应用项目的极佳选择。

在PA表征工作中,将收集数百万样本——70%用于训练,30%用于测试和验证,以评估模型模仿PA行为的能力。模型性能将通过准确性、精度、召回率、F1分数和ROC-AUC等指标进行评估。

步骤3:神经网络模型验证与部署

部署过程始于验证模型以确保鲁棒性和准确性,利用验证数据监控训练质量并执行标准,同时测试数据独立评估准确性和泛化性。解决过拟合和欠拟合问题对于确保模型能够良好推广到新数据至关重要。

通过限制层数、隐藏神经元或参数以简化模型,扩展训练数据集,甚至通过修剪(例如去除对性能贡献不大的冗余神经元)来增强泛化来缓解过拟合。另一方面,通过增加隐藏神经元以提升模型复杂度和/或调整学习率、批次大小或正则化强度等超参数来改善拟合不足。

机器学习工程师必须在这些策略间取得平衡,并迭代评估DPD模型的性能,以实现稳健且可推广的模型,同时关注模型的执行速度。图4展示了神经网络DPD模型评估系统架构的高级方块图。

1764655080197848.png

4. 神经网络DPD模型评估平台的框图。

无论如何,确定隐藏神经元的最佳数量需要实证研究、反复试验或训练中的适应性方法。这些调整确保网络在复杂性与性能之间取得适当平衡,从而实现高效有效的模型部署。模型的部署可通过边缘AI嵌入式MCU(如ADI的卷积神经网络(CNN)加速芯片MAX78000实现。

将AI/ML与DPD系统整合:挑战与机遇

将人工智能和机器学习整合进DPD系统具有显著改进潜力,但也带来了实际挑战。DPD系统需要低延迟和高速处理,而这在计算密集型机器学习模型中较难实现。此外,动态运行条件如温度波动和硬件老化,需要实时学习或迁移学习等自适应技术来保持最佳性能。

能源效率是另一个关键因素,因为AI/ML模型,尤其是深度学习架构,通常比传统DPD方法耗电更多,因此不适合高能耗环境。未来的实验应以轻量级神经网络进行,这些网络是标准神经网络的优化版本。

这些轻量级神经网络设计参数更少,计算量更少,且内存效率高。它们尤其适用于计算资源有限的应用,如移动和物联网(IoT)设备或其他资源有限的系统。

许多机器学习模型,尤其是深度神经网络中缺乏可解释性,进一步复杂化了与DPD系统的整合。当决策过程不透明时,调试和优化具有挑战性,因为这些模型将复杂作简化为权重、偏差和激活函数。

结论:通过AI/机器学习实现DPD的进化

随着大规模MIMO等5G技术需要更低功耗和更高精度,DPD系统必须进化以应对新的复杂性。AI/ML将在通过自适应学习和混合建模等创新实现可扩展、节能解决方案方面发挥关键作用。神经网络能够模拟复杂的非线性和记忆效应,通过近似非线性函数,简化了DPD系统设计,无需显式数学表述。

集成AI/ML提升了电力效率,使PA能够接近饱和运行,同时降低非线性PA的成本。尽管面临挑战,AI/ML驱动的系统在提升DPD系统的准确性、适应性和可扩展性方面具有巨大潜力。

结合传统多项式方法与AI/ML技术的混合方法,提供了平衡的解决方案,将经典模型的可解释性与AI/ML的先进能力相结合。通过创新策略应对这些挑战,AI/ML能够推动DPD系统的变革性进展,支持现代通信技术的发展。

 
更多>同类资讯