《IMT-2030(6G)推进组:2022年无线AI技术研究报告(第二版)(100页).pdf》由会员分享,可在线阅读,更多相关《IMT-2030(6G)推进组:2022年无线AI技术研究报告(第二版)(100页).pdf(100页珍藏版)》请在三个皮匠报告上搜索。
1、无线AI技术研究报告1 2022 年年 9 月月 版版权权声声明明 Copyright Notification 未经书面许可 禁止打印、复制及通过任何媒体传播 2022 IMT-2030(6G)推进组版权所有2 前前 言言无线人工智能是指内生于无线通信系统,通过机器学习等手段深度挖掘利用无线数据和无线模型,由此形成的涵盖新型智能无线架构、无线空口、无线算法和无线应用在内的人工智能技术体系。它主要包括:一是内生智能的新型空口,即深度融合人工智能/机器学习技术,将打破现有无线空口模块化的设计框架,实现无线环境、资源、干扰、业务、语义和用户等多维特性的深度挖掘和利用,显著提升无线网络的高效性、可靠
2、性、实时性和安全性,并实现网络的自主运行和自我演进。二是内生智能的新型网络架构,即充分利用网络节点的通信、计算和感知能力,通过分布式学习、群智式协同以及云边端一体化算法部署,实现更为强大的网络智能,支撑未来各种智慧应用。无线 AI 自 2016 年前后开始蓬勃发展,当前已掀起全球学术界和工业界的研究热潮。IEEE 通信学会启动“Machine Learning For Communications Emerging Technologies Initiative”,欧盟 Horizon 2020 启动“智能网络与服务”6G 研究项目,重点发展 AI 增强的通信与网络技术。欧美一批著名高校和企业
3、研究机构均开展了大量的研究工作,部分机构还推出了无线 AI 原型系统。国内主要高校和部分行业领先企业围绕无线智能网络架构、无线智能空口、无线 AI 算法、无线 AI 数据集、无线语义通信等基础理论和关键技术展开了深入研究和探索,并取得了丰富的成果,部分成果还完成了测试,有效验证了无线人工智能的技术可行性和应用潜力,并初步形成了如下基本结论和重要共识:1)AI/ML 能很好地表征和重构未知无线信道环境、有效跟踪预测反馈信道状态、挖掘利用大状态空间内在统计特征,大幅度提升物理层信号处理算法的性能。2)AI/ML 能够智能挖掘利用无线网络时空频通信、感知和计算资源,有效协调干扰,实现多用户、多目标、
4、高维度、分布式、准全局优化调度决策。3)若干 AI/ML 架构能够很好地与无线网络拓扑、无线传输接入协议、无线资源约束、无线分布式数据特征相适配,从而有潜力建构新型无线智能网络架构;在此基础上进一步利用网络分布式算力和动态运力,自主适应无线网络分布式计算业务需求,实现网络高效资源利用、自主运行和智能服务。4)无线语义通信作为一种全新的智能通信架构,通过将用户对信息的需求和语义特征融入通信过程,有望显著提升通信效率、改进用户体验,解决基于比特的传统通信协议中存在的跨系统、跨协议、跨网络、跨人机不兼容和难互通等问题。3 5)无线数据隐藏结构特征复杂,跨时空分布式小样本问题突出,无线数据集的构建、访
5、问、训练、迁移及其隐私安全保障将显著影响无线 AI 系统的架构设计和算法部署。无线 AI 将是未来 6G 中渗透性最强的核心技术之一,涉及空口、网络、协议和算法的各个层面,也将深度影响感知、通信、计算、控制等网络功能,其性能潜力已得到证实。相关研究成果在感知、预测、定位、跟踪、反馈、调度、优化、调控等方面的应用潜力巨大,初步形成了未来标准化和产业化的基础,部分技术已在 R17、R18中得到初步研究和应用。下一步宜深入探索无线智能通信系统在数据和算力需求、AI 通信计算综合效能方面的极限理论,重点推进无线智能网络架构、无线智能空口、无线 AI 算法、无线 AI数据集、无线语义通信等方面的标准化,
6、着重解决如下核心难点:适用于无线的通用AI 架构、数据和算力约束的高效无线 AI 算法,支撑 AI 算法高效部署的无线协议,以及无线 AI 性能(界限)的精准分析预测等等。4 目 录 图目录 6 表目录 8 第一章 引言.11 第二章 基于 AI/ML 的物理层技术.12 2.1 基于 AI/ML 的无线环境建模与感知.13 2.2 基于 AI 的信道估计、预测及反馈.15 2.2.1 信道状态信息估计.17 2.2.2 信道状态信息预测.19 2.2.3 信道状态信息反馈.21 2.2.4 导频、信道估计、信道反馈、预编码联合设计.23 2.3 AI 使能的端到端设计.24 2.4 基于 A
7、I/ML 的信道编译码技术.26 2.4.1 基于 AI/ML 的信道编码方案设计.26 2.4.2 基于 DNN 的编译码算法.27 2.4.3 基于 CNN 的译码算法.27 2.4.4 基于 LSTM 网络的译码算法.28 2.4.5 基于对抗生成网络译码算法.30 2.5 基于 AI/ML 的调制与波形技术.31 2.6 基于 AI/ML 的信源信道联合编码技术.32 2.7 基于 AI 的 OFDM 接收机设计.34 2.8 基于 AI 的多天线收发技术.35 2.8.1 基于 AI 的 MIMO 检测.36 2.8.2 单用户毫米波 MIMO 混合预编码.37 2.8.3 多用户毫
8、米波 MIMO 混合预编码.39 2.8.4 移动自适应协同波束成形.40 2.8.5 基于 AI/ML 的波束漂移抑制技术.41 2.8.6 基于 AI/ML 的波束跟踪技术.42 2.9 基于 AI 的多用户接入技术.43 2.10 基于 AI 的活跃用户检测.44 2.11 基于 AI 的定位技术.46 2.12 小结.47 第三章 基于 AI/ML 的链路层技术.48 3.1 基于 AI 的功率分配.48 3.2 基于 AI 的信道分配.49 3.3 基于 AI 的接入控制.50 3.4 基于 AI 的链路调度.51 3.5 基于智能体(smart agent)的无线资源调度.52 3
9、.6 基于 AI 的网络切片无线资源分配.54 3.7 小结.56 5 第四章 基于 AI 的网络上层技术.57 4.1 基于 AI 的无线网络架构.57 4.2 基于 AI 的传输层拥塞控制技术.58 4.3 基于 AI 的业务速率控制.60 4.4 基于 AI 的需求预测与缓存技术.61 4.5 基于 AI 的无线分布式计算.63 4.6 小结.65 第五章 基于 AI 的语义通信.66 5.1 基于 AI 的语义通信系统架构.66 5.2 基于 AI 的高效语音语义通信系统.66 5.3 基于 AI 的图像语义通信系统.68 5.4 基于 AI 的语义通信系统资源调度.69 5.5 小结
10、.70 第六章 无线 AI 研究数据集.71 6.1 无线 AI 研究数据收集和利用.71 6.2 无线 AI 研究数据集的共建共享.72 6.2.1 定位.73 6.2.2 智能波束预测.74 6.2.3 模型泛化与迁移.75 6.3 无线 AI 伦理规范及隐私保护.77 6.4 小结.78 第七章 研究总结及产业化前景分析与展望.79 7.1 AI 赋能无线技术的潜能及优势.79 7.2 AI 赋能无线技术的产品成熟度.80 7.3 AI 赋能无线技术的标准化和产业化影响.81 7.4 AI 赋能无线技术未来研究工作展望.82 参考文献 83 贡献单位 97 附录:缩略词表.98 6 图目
11、录 图 2-1 无线通信链路.12 图 2-2 基于 seq-to-seq 模型的信道预测器.13 图 2-3 多维信道嵌入.14 图 2-4 系统框架图.17 图 2-5 DL 和传统算法的比较.17 图 2-6 复合神经网络仿真结果.18 图 2-7 小样本 AI 信道估计仿真结果.19 图 2-8 基于深度学习的信道选择联合信道外推网络.20 图 2-9 左:均匀选择图案 中:网络学习到的图案 右:信道外推误差比较.20 图 2-10 用于静态信道预测的 C-GRBF 网络结构.21 图 2-11 基于 AI 的全信道信息反馈架构.21 图 2-12 基于 AI 的隐式反馈架构.22 图
12、 2-13 32 天线下 UMA 加噪信道数据仿真图.22 图 2-14 导频设计、信道估计、信道信息反馈、预编码的联合设计.23 图 2-15 基于 AI 的端到端收发机设计(针对 AWGN 信道).24 图 2-16 基于 AI 的端到端收发机误消息率性能比较(AWGN 信道).25 图 2-17 卡尔曼滤波和 AI 结合的端到端收发机.25 图 2-18 基于 AI 方法设计的 Polar 码性能优于 DE/GA 方法.27 图 2-19 BP-CNN 译码算法.28 图 2-20 BP-CNN 译码性能对比.28 图 2-21 LSTM-aided SCF 算法示意图.29 图 2-2
13、2 LSTM-aided SCF 性能对比.29 图 2-23 LSTM-Aided CA-SCLF 算法性能比较.29 图 2-24 基于对抗生成网络的低密度奇偶校验码译码模型.30 图 2-25 对抗生成网络的 LDPC 码译码结果.31 图 2-26 基于 autoencoder 的调制解调联合设计.31 图 2-27 基于 AE 的低 PAPR 波形设计.32 图 2-28 基于 AI 的智能波形识别网络.32 图 2-29 基于 AI 的信源信道联合编解码方案的神经网络结构图.33 图 2-30 基于 AI 的信源信道联合编码方案的性能.34 图 2-31 基于模型驱动的 OFDM
14、接收机.35 图 2-32 基于数据驱动的 OFDM 接收机.35 图 2-33 时变信道条件下各检测算法的误码率性能比较.36 图 2-34 MMNet 算法性能.37 图 2-35 基于波束训练与跟踪的毫米波单用户混合预编码原理图.38 图 2-36 不同算法的有效可达速率性能比较.38 图 2-37 基于智能交互式学习范式的毫米波多用户预编码算法.39 图 2-38 毫米波协同波束成形系统框图.40 图 2-39(左)在线学习阶段模型.41 7 图 2-40(右)深度学习预测阶段模型.41 图 2-41 波束漂移效应抑制的方法原理图.42 图 2-42 有效可达速率-数据传输波束宽度固定
15、与自适应优化.42 图 2-43 基于 AI 方法的多用户接收机.44 图 2-44 DNN-MP-BSBL 结构(N=3;K=6;Lt=2;dc=2).45 图 2-45 D-AUD 与传统检测算法性能比较.45 图 2-46 不同场景下 LOS 的概率.46 图 3-1 Actor-critic 强化学习框架.49 图 3-2 物联网中的联合信道接入和包转发.51 图 3-3 基于 DRL 的 full-buffer 场景用户调度.52 图 3-4 可扩展的神经网络设计.53 图 3-5 深度强化学习算法性能.53 图 3-6 面向业务流的网络切片资源分配仿真结果.55 图 4-1 无线
16、AI 架构.58 图 4-2 实验结果.60 图 4-3 基于 AI 的业务层速率控制.60 图 4-4 网络测试结果.60 图 5-1 语义通信模型的一般框架.66 图 5-2 高效语音语义通信系统结构.67 图 5-3 语音语义通信系统测试集错误率.67 图 5-4 语音语义通信系统语义相似度.67 图 5-5 基于多级特征的图像通信系统.69 图 5-6 系统支持用户数随功率变化图.70 图 6-1 无线 AI 研究数据集的收集和利用举例.72 图 6-2 内生 AI 架构与无线 AI 研究数据集.72 图 6-3 RT 仿真信道数据(左:BS/UE 部署 右:BS5 和 UE7 RT
17、仿真结果).72 图 6-4 基于无线 AI 研究数据集的定位任务训练结果.74 图 6-5 波束预测性能对比.75 图 6-6 波束预测模型迁移性能.76 图 6-7 预训练模型部署和迁移验证.76 图 6-8 三种模型迁移策略的波束预测准确率对比.76 8 表目录 表 2-1 AI 定位精度性能评估结果.14 表 4-1 传输层拥塞控制主要 AI 算法.59 表 5-1 高效语音语义通信系统对于传输一段音频信号所需要的序列长度.68 表 5-2 高效语音语义通信系统对于传输一个隐变量所需要的通信量.68 表 6-1 自定义参数配置.74 表 7-1 典型的复杂神经网络的复杂度列表.81 表
18、 7-2 主要贡献单位.97 11 第一章 引言伴随着人工智能(artificial intelligence,AI)三大驱动力算力、算法和数据相关技术的不断发展,AI 技术正在人类社会中掀起新一轮的技术革命。特别地,作为AI 技术的一个重要研究方向,机器学习(machine learning,ML)利用了深度神经网络(deep neural network,DNN)的非线性处理能力,成功地解决了一系列从前难以处理的问题,在图像识别、语音处理、自然语言处理、游戏等领域甚至表现出强于人类的性能,因此近来受到了越来越多的关注。AI/ML技术发展的同时,无线通信系统也在持续高速发展中。第5代移动通信
19、(5G)支持增强移动通信(enhanced mobile broadband,eMBB)、超高可靠低时延(ultra-reliable low latency communications,uRLLC)和海量机器类型通信(massive machine type communications,mMTC)等三大应用场景,而未来的无线通信系统必将向更大吞吐、更低时延、更高可靠性、更大连接数、更高频谱利用率等方向演进。已有的研究工作表明,AI 在复杂未知环境建模、学习,信道预测,智能信号生成与处理,网络状态跟踪与智能调度,网络优化部署等许多方面具有重要的应用潜力1-228,有望促进未来通信范式的演变
20、和网络架构的变革,对 6G 技术研究具有十分重要的意义和价值。由此催生了无线 AI 技术的蓬勃发展。无线 AI 将是未来 6G 中渗透性最强的核心技术之一,涉及空口、网络、协议和算法的各个层面,也将深度影响感知、通信、计算、控制等网络功能,其性能潜力巨大。学术界和产业界围绕无线智能网络架构、无线智能空口、无线 AI 算法、无线 AI 数据集、无线语义通信等基础理论和关键技术展开了深入研究和探索,取得了一系列重要进展。在 IMT-2030(6G)推进组的统一安排下,无线技术工作组无线 AI 任务组就人工智能技术在 6G 无线空口和无线组网中的应用开展了深入调研分析,以为下一步开展相关研究提供指导
21、和思路。本报告在对当前国内外的主要研究状况进行调研分析的基础上,结合部分成员单位在无线 AI 上的一些研究工作,对无线 AI 的若干研究方向及其关键技术进行了较为全面地分析和讨论,同时探讨了无线 AI 的难点、挑战和产业化前景。12 第二章 基于AI/ML的物理层技术 传统通信链路设计时,人们采取分而治之的方法,将各功能模块进行独立的设计和优化 如图 2-1 所示。在某些功能模块的设计和优化过程中,可能存在着性能损失。例如,为了降低设计复杂度,将某些非线性处理简化假设为线性操作。又如,一些模块的设计理论仍然缺失或难以分析,只能借助于启发式算法。此时,使用 AI/ML 方法替换这些模块可以带来性
22、能的提升以及处理时延的降低。这也是将 AI/ML 方法用于空口技术设计的最直接方式。图图2-1 无无线线通通信信链链路路 目前,AI/ML在无线物理层中的应用包括利用神经网络来取代传统发射机和接收机中的基本功能模块,或者将物理层通信看作一个端到端的信号重构问题,并应用自编码器概念来表示物理层通信过程,进行端到端通信的联合优化。目前现有的深度学习网络大多数是基于这种方式的,使用标准的神经网络结构作为黑匣子并通过大量数据进行训练49123360。训练标准的神经网络除了需要庞大的数据集之外,还需要大量的训练时间。然而这些资源在某些情况下是极其稀缺的,尤其是在无线通信领域。与数据驱动的方法相比,模型驱
23、动深度学习方法基于已知的物理机制和领域知识构建网络拓扑5。因此需要较少的训练数据和较短的训练时间,成为实现智能通信的有效手段。基于此,研究模型驱动深度学习的无线物理层设计6,也是面向6G 的智能通信发展提供理论支撑并指明技术方向的一大重要方式。一般构造模型驱动深度学习的方法有以下三种:1)将迭代算法形成信号流图;2)将算法作为初始化步骤,并将其与神经网络相结合;3)模仿模型驱动方法中的传统结构。针对模型驱动深度学习的无线物理层设计问题,研究者分别研究了基于模型驱动深度学习的大规模 MIMO 信道估计7576、信号检测134、信道译码2526、CSI 反馈85和多用13 户预编码78。以下将会针
24、对物理层的不同模块分别详细介绍基于这两种方式的各种 AI/ML 实现方案。2.1 基于 AI/ML 的无线环境建模与感知 大部分现有无线环境建模的工作侧重于无线信道的建模。传统的随机信道建模1归纳总结大量实测信道的统计特性,得到的信道模型主要用于为不同空口技术算法对比提供一致的信道环境。随机信道模型归纳总结了信道的统计特性,然而无法提供特定场景下的信道信息。另一种传统的信道建模方式为确定性信道建模2,它基于特定传输场景的 3D 地图,通过射线追踪的方式得到场景中的无线信道。这种建模方法以给定场景的 3D 地图为基础,因此其模型具有场景关联性,不同场景下的信道模型无法复用。对于未来的无线通信系统
25、,无线信道模型以及无线场景模型将不再简单地作为各种算法对比的环境基础。我们期望可以通过对无线传输环境的学习和总结,帮助通信系统更加智能地完成调度、功控、波束管理、参数选择与配置等任务。通过采集大量的传输环境信息数据(包括信道数据、感知数据等),借助 AI/ML 技术的学习和提炼能力,建立“无线电地图”,给系统的设计和决策提供辅助信息,并降低系统的测量反馈开销。现有工作中,人们尝试了各种结构的模型对无线信道信息进行学习、总结和建模。例如,在文献3中,作者使用了自回归(auto-regressive,AR)模型学习信道的时间相关性,可以将信道作为时间序列,利用这些回归模型进行建模和预测。多种神经网
26、络结构都曾被尝试用于无线信道的建模,以及基于模型的信道估计和信道预测4-20。图图2-2 基基于于seq-to-seq模模型型的的信信道道预预测测器器 14 如图 2-2 所示,作者使用 seq-to-seq 模型21,将信道信息作为时间序列,进行预测22。实验发现,当信道存在深衰时,传统的基于参考信号的信道估计方法将出现明显的性能下降,因为此时受到深衰的影响,接收到的参考信号能量极低,无法准确估计信道的幅度和相位信息。而基于 seq-to-seq 模型的信道预测器则可以提供较为准确的信道信息,使得系统解调性能优于传统信道估计算法。进一步的,考虑信道信息在多个维度上的相关性,可以进行多维的信道
27、嵌入操作。如图 2-3 所示,将信道的位置、频率、时间、空间属性同时进行嵌入操作。将嵌入升维后的信道信息输入注意力(attention)网络,得到信道模型。这一信道模型可以用于多种信道相关的任务,例如定位、信道压缩、信道指纹等。为了更加快速有效地完成这些任务,可以使用历史信道数据,对信道模型进行预训练。预训练的信道模型连接不同的下游任务网络,再进行进一步训练和调优。作者发现,这种预训练的信道模型具有良好的迁移特性23,即在特定场景下预训练的信道模型可用于相似场景(例如同一幢建筑的不同楼层)的信道相关任务。图图2-3 多多维维信信道道嵌嵌入入 中国电信提出了基于信道指纹特征的 AI 直接定位技术
28、,其主要原理是通过对大量信道信息学习,将信道特征与位置坐标进行映射,用于解决重 NLOS 场景室内难点难题。由于该场景与基站具有 LOS 径的测量信号很少,传统定位算法将不再适用,传统定位技术定位精度严重下降。室内场景采用 3GPP InF 模型,开源数据集,传统 AI 全连接神经网络模型,评估结果显示可显著提升定位精度。表2-1 AI定位精度性能评估结果 定定位位精精度度 CDFX%AI+DL-TDOA AI+TOA 传传统统 TOA 定定位位 50%0.38m 0.37m 11m15 67%0.49m 0.46m 80%0.59m 0.57m 90%0.73m 0.69m 实验表明,面向未
29、来网络演进,与反向散射、通感技术的结合将会极大丰富训练数据集,通过 AI 实现多维特征信息的感知与融合,从而实现基于 AI 的精准感知定位。2.2 基于 AI 的信道估计、预测及反馈 在信道状态信息已知的情况下,MIMO 通信系统的容量会随着发送或接收天线的数目线性增长。但是要得到这样的好处,一个很关键的要求就是要在接收端和发送端获得准确的信道状态信息(channel state information,CSI)。因此信道状态信息的估计(estimation)以及预测(prediction)是 MIMO 系统中一个非常重要的任务。信道的估计问题主要是在接收端根据导频序列来估计发送端和接收端之间
30、的信道状态信息的问题,而信道状态信息的预测问题主要是根据部分(时间、空间、频率角度)的信道状态信息来预测和映射其他信道状态信息的问题。此外,在频分双工(frequency division duplexity,FDD)制式下,下行 CSI 需要先由用户端(user equipment,UE)通过反馈链路传送回基站。在下面分别介绍信道状态信息的估计问题、预测问题以及反馈问题。首先,针对信道状态信息的估计问题。由于传统的基于压缩感知,最小均方误差的方法在 MIMO 中存在很高的计算复杂度,因此近些年来有很多的工作通过人工智能的方法来进行信道状态信息的估计57-78。同样地,这些工作也可以被分为两类
31、:数据驱动(data-driven)的方法57-74和模型驱动(model-driven)的方式75-78。在数据驱动中,57最早提出了用神经网络估计信道状态信息的方式,也奠定了之后的大部分工作根据已有信道模型生成训练数据、离线训练的思路基础。在这一类问题中,研究者重点关注的是如何通过改善神经网络,将这种数据驱动的方式应用在不同要求的场景下58-74。特别地,由于数据驱动方式对训练数据的较高要求,导致这种74数据驱动的方式在实际的应用中受限,74给出了一种基于强化学习的非监督式的信道估计方法,主要的方式是通过选择性地探索检测到的符号向量作为额外的导频信号,从而来更新最小均方误差的信道估计,强化
32、学习主要用于最优化对符号向量的选取,以一种高效计算的方式来解决这个问题。这种方式可以降低信道估计的误差。另一部分是模型驱动的方式,这种方式的特点是会根据模型来应用神经网络,或是算法来设计神经网络的结构,他们最重要的是没有完全地抛弃传统方法的对应的模块,而是有选择地应用在新的算法中。75给出了一种通过学习得到的基于降噪的近似消16 息传递网络。这个网络可以从大量的训练数据中学习到信道的结构并且实现信道估计,给出了波束域的信道信息。77实现了联合的信道估计和信号检测,其中信号检测考虑到了信道估计的误差和统计信息,同时信道估计通过检测到的数据以及信号检测的误差来进行优化。78首先根据最简单的最小二乘
33、法得到一个粗略的信道矩阵,然后再使用一个基于 CNN 的超分辨率网络(super resolution network,SPN)来学习他和信道矩阵之间的联系,从而增加准确性。信道状态信息的预测问题,根据时间、频率和空间的关联性,可以分为四类。第一类是根据前段时间的信道状态信息来预测下一时间的信道状态信息,主要是应用在随时间变化的信道或者高速移动的场景下,这类问题主要是通过神经网络来刻画和捕捉信道在时间前后的关联性81-83,由于RNN对时间序列很好的处理属性,很自然的,有工作8182基于RNN对信道的前后状态信息进行了捕捉,基于前几个时间的信道状态信息预测出了后一时刻的信道状态信息。第二类信道
34、预测问题关注于频率角度的相关性84-87,应用在根据FDD的上行信道状态信息来预测下行信道状态信息的问题上。其中84将迁移学习的方法应用到了FDD下行信道的预测问题上,根据全部之前环境中的数据来推测新的环境(频率)中的数据,86,87则使用了传统的CNN来根据上行信道信息映射和预测下行信道的信息。第三类是根据空间角度的预测问题。87实现了根据基站部分天线与用户的信道状态信息来预测和映射全部天线与用户的信道状态信息,刻画了信道的空间关联性。第四类是根据相邻用户的信道信息相关性进行预测。对于在同一个场景中并且在同一个基站服务范围内的用户,他们的信道往往也具有很强的相关性,且在不同位置的用户所享有的
35、信道强弱可能不同。因此可以通过部分用户的信道来预测区域所有用户的信道。这一技术在未来万物互联时代将有无限的潜力。最后,针对信道状态信息的反馈问题。传统反馈方案采用矢量量化或基于码本的方法减少反馈开销,主要分为隐式反馈(Implicit Feedback)和显式反馈(Explicit Feedback)。其中,隐式反馈将预编码矩阵索引(Precoding Matrix Index,PMI)、信道质量指数(Channel Quality Indicator,CQI)等部分信道信息进行量化后反馈,显式反馈是对完整信道矩阵进行量化后反馈。上述两种反馈方案的性能依赖于码本的设计,且其码本设计复杂度和相应
36、的反馈量会随着天线数量增加而显著增长,因此大规模MIMO 给基于码本的反馈方案带来了极大的挑战。近年来,随着人工智能技术的迅猛发展,诞生了基于 AI 的 CSI 反馈方案,并成为当下 CSI 反馈研究的热点。其中有基于 AI 的全信道信息反馈91929394和基于 AI 的隐式反馈两种反馈方案,将在以下分别介绍。17 2.2.1 信道状态信息估计 首先介绍数据驱动模型的典型工作57。这个工作基于一个正交频分复用(orthogonal frequency-division multiplexing,OFDM)系统,所提的框架图如下图 2-4所示。在该文献中将 OFDM 的解调和无线信道都视为黑盒
37、,考虑如何直接从接收到的 图图2-4 系系统统框框架架图图 数据恢复原始的传输数据,其中包括了解调以及信道估计的过程。他将接收到的信号和原始的传输数据作为训练数据,神经网络的输入是接收到的数据,训练的目标是最小化神经网络的输出和原始传输数据的距离。仿真比较了基于传统的最小平方差(least square,LS)和最小均方误差(minimum mean square error,MMSE)的信道估计和检测方法与这种基于神经网络的方法,得到的结果如下图 2-5 所示。从图中的结果可以看出,LS 表现最差,因为没有用到信道的统计信息,同时 MMSE 有最好的表现,因为此时二阶的信道统计信息假设已知并
38、且被用于检测,可以看出基于深度学习(deep learning,DL)的方法要比 LS 好很多,并且近似于 MMSE 的表现。图图2-5 DL和和传传统统算算法法的的比比较较 18 近期,诺基亚上海贝尔研究如何在高多普勒的场景下,把辅助信息耦合入信道估计中,从而在对信道进行完美估计的同时,减少对参考信号开销的需求。进而提出一种基于超分辨率神经网络的复合结构,仅使用一个参考信号,在时、频维度上对信道进行准确估计,并对多普勒效应进行自适应补偿。方案 1 的特点是与特定环境高度相关,并且支网络结构简单,我们仅使用若干 FC/CNN。方案 2 以欠完美的星座图像作为神经网络的辅助信息,通过机器学习图像
39、识别的方式,对多普勒进行自适应补偿。方案 1 是在 ray tracing 的信道模型中进行验证的,如图 2-6 的左图所示,无论是传统方法或者单一的超分辨率神经网络,在仅用一个 DMRS 的情况下,都无法很好地处理多普勒效应。然而在语义信息输入的复合结构中,即使是未经训练的条件下,多普勒影响可以被很好的补偿,对星座图旋转进行有效修正。方案 2 是在 38.901 定义的信道模型上进行的仿真验证的如图 2-6 的右图所示仿真结果证实,通过对星座图识别,可以有效对多普勒影响进行补偿,对星座图旋转进行有效修正,达到接近基于完美信道估计的表现,并优于传统的信道估计方法。图图2-6 复复合合神神经经网
40、网络络仿仿真真结结果果 此外,就现有的信道估计方法而言,有粗略型和精准型两种形态。粗略型计算相对简单粗暴但精准度相对较差,实际应用广泛。精准型估计的计算量非常大,特别是信道矩阵 H 求逆过程十分复杂,实际的总时延会使信道估计的意义降低,实战意义较低。随着通信的发展,导频开销日益严重,如果单纯的依赖增加导频密度来应对更多场景的信道估计方面的挑战,代价是很大的。设计一种 AI 算法,降低对信道测量数据的依赖,比较高效精准的实现信道预测是我们研究的焦点。小样本 AI 应用于信道估计的思路如下。单纯的 HI 算法(传统经验公式法)随着导频稀疏程度增大误差也随之增大。通过小样本 AI 算法可以快速捕获信
41、道变化特点,配合 HI(以曲率圆估计方法为例)来实现信道的快速准确估计。曲率圆估计方法应用在由信道 H 的实部、虚部以及时间构成的三维空间坐标系上,通过19 曲率圆弧的插值方式实现信道估计。小样本 AI 算法重点学习曲率圆的主要特征为:(1)曲率半径;(2)波动周期“T”;(3)曲率圆心位置;(4)包络。小样本 AI 需要通过邻近的历史数据学习这四方面的特征及变化趋势,但是区别于传统 AI,这种抽象学习不需要大量历史数据,因为大量的历史数据(时间或空间差异大)对当前信道估计有效性差。最后,仿真结果如图 2-7 所示,其中,混合速度(50、60、70KM/h)+多径+噪声(10dB)+节省导频开
42、销(25%,50%、75%、95%。结果显示,HI+AI 模型显然对抗导频超稀疏场景的能力更强。多项实验证明该模型在传统导频减少超过90%时,性能还能保持优良。同时,该工作也给出了未来深度探索的方向。包括(1)相同开销的导频,不同发送策略会产生不同性能效果;(2)不同场景动态调整不同的导频;(3)导频开销节省的极致边界。图图2-7 小小样样本本AI信信道道估估计计仿仿真真结结果果 2.2.2 信道状态信息预测 考虑随时间变化的信道,由于反馈的延迟会导致得到的信道状态信息不再准确,尤其是在快衰落的信道中。为了解决这个问题,81应用 RNN 网络来建立一个长范围的信道预测器。对于一个快衰落信道,通
43、过应用一个多步 RNN 就可以准确地预测信道的增益以及系数。同样是从已知信道预测未知信道,文献87则考虑了信道在空间和频率上的相关性,应用这种相关性实现了信道的映射和预测。这个工作解决的问题是如何根据一部分天线和一部分频带的信道状态信息,预测或映射得到全部天线、全部频带的信道状态信息,并且证明了这种映射的可实现性。文献88同样也考虑了信道时域相关性,即通过一部分天线的信道,去预测所有的天线信道。不同的是,作者同时提出了一个基于深度学习的信道选择子网络,在训练信道预测网络的同时训练最优的天线选择方案。所提的网络结构如图 2-8,其中信道选择子网络实现天线子集的选择,而信道外推子网络则实现从这一天
44、线子集的信道信息到全部天线信道信息的预测。仿真结果如图 2-9 所示。20 图图2-8 基基于于深深度度学学习习的的信信道道选选择择联联合合信信道道外外推推网网络络 图图2-9 左左:均均匀匀选选择择图图案案 中中:网网络络学学习习到到的的图图案案 右右:信信道道外外推推误误差差比比较较 这个工作所提出的信道选择联合信道外推技术减少了大规模天线系统的导频开销,节约了频谱资源和能效。其所使用的信道选择方法也可以用于其他需要进行选择操作的通信问题中。但该信道选择方法仍有待进一步改进,如信道选择网络输出一个信道选择向量,与按元素相乘后得到的信道向量包含大量0元素,这给信道外推子网络带来了一定程度的冗
45、余,可以进一步研究可以消除这些0元素的方法来降低信道外推子网络的规模。文献90提出一种针对于准静态环境的信道预测网络。在实际的通信场景下,基站总是服务于某个固定的区域。在该区域中,散射体的数量、位置、电磁特性也可以认为是准静态的。因此,发生在固定区域中的所有通信过程都受到同样的散射环境影响,不同位置处的静态信道可以认为是高度相关的。利用在固定区域内随机获取的一组CSI-位置坐标样本,可以通过学习的方式预测该场景中任意一个位置处的静态CSI。其中,CSI-位置坐标数据可以通过历史的通信过程中的记录获得,因此不会带来额外的信令开销。因此通过特殊设计的学习网络,能够仅通过用户所处位置坐标信息预测用户
46、所处位置的静态信道冲激响应(CIR)。所提出的C-GRBF网络的学习架构如图2-10所示。整个结构由三部分组成:深度前馈神经网络、C-GRBF层和加权输出线性层。首先位置坐标输入到深度神经网络中,深度网络输出由一系列神经元组。每一组包含三个神经元,用于表征某一条传播路径所对应的关于用户坐标的反射像点。在径向基函数层,将输出的坐标输入到余弦高斯核函数中,是C高斯核函数的可学习中心,通过得到相关核函数输出的加权和,可以得到某一路径的最终幅值部分。经过充分的训练后,参数W将收敛到一个固定值,即电磁波的频率除以光速。参数a被设计周期函数核的中心,以拟合由传播距离引起的相移。最后,线性层用于组合核函数的
47、输出结构,并重构信道响应向量。21 Hidden layersCosine-Gaussian RBF layerOutput LayerComplex CIRLinear Layer1Re h2Re h3Re hRe ihIm ih3Im h2Im h1Im hIm1,1wIm1,2wIm,n iwRe,n iwRe1,1w1()2()3()()n|22|exp()sin()cos()nxnancnbnbxpypzp图图2-10 用用于于静静态态信信道道预预测测的的C-GRBF网网络络结结构构 这个工作具有很好的意义,揭示了无线通信场景可以通过物理启发的学习结构和算法来学习,并且说明了如何设计
48、特定的学习结构来适应无线通信中的特殊问题。此外,说明了针对具体无线通信场景设计的网络结构有更大的潜能在具体任务上超过通用学习网络与架构。2.2.3 信道状态信息反馈 基于AI的信道状态信息反馈方案有全信道信息反馈和隐式反馈两种方式。首先介绍基于AI的全信道信息反馈方案。这种方案将通信系统建模为端到端的CSI图像重构任务。其结构如图2-11所示,是一个基于自编码器(autoencoder,AE)的网络架构。位于UE端的编码器将完整CSI视为图像并压缩为一个满足反馈比特要求的压缩编码,再通过反馈链路反馈到基站(base station,BS)端;BS端则利用译码器进行解压和重建任务,输出为CSI的
49、重建图像。使用AE实现端到端的无线通信系统,在训练过程中能够通过优化器共同优化编码器与译码器网络,从而获得最优的CSI重建模型。图图2-11 基基于于AI的的全全信信道道信信息息反反馈馈架架构构 22 基于AI的全CSI反馈架构CsiNet91,其编码器包括特征提取、特征压缩两个模块,译码器包括特征解压缩和信道重建两个模块,其中全连接层完成特征压缩与解压任务,信道重建部分则包含两个由三层卷积组成的残差模块,用于细节上的重建。实验表明,相较于基于压缩感知的反馈方案,其重建精度大幅提升,同时运算速度提升近100倍。面对时变信道,CsiNet-LSTM92在CsiNet的译码器中利用LSTM的记忆特
50、性有效提取CSI序列的时间相关性,进一步提升了网络的重建性能。CsiNet+93提出了一种多速率反馈架构,并对编码器输出的压缩编码进行非均匀量化,生成比特流便于实际传输。CsiFBnet 94则是提出了一种结合波束成型技术的反馈模型,最大化利用波束成形技术带来的性能增益来提升系统表现。接下来介绍基于AI的隐式反馈方案。现有5G系统的CSI反馈依赖特征向量等间接信息的反馈与利用,从经典模型的角度出发,利用Type I/II码本实现特征向量的反馈与恢复。为了更直观平等地比较基于AI的反馈方案和5G NR中基于码本的反馈方案,考虑将AI与隐式反馈相结合,通过提取完整信道矩阵的特征向量,并送入神经网络
51、进行压缩反馈,从而减少反馈开销。图图2-12 基基于于AI的的隐隐式式反反馈馈架架构构 图图2-13 32天天线线下下UMA加加噪噪信信道道数数据据仿仿真真图图 图2-12所示为基于AI的隐式反馈架构,在信道信息压缩反馈前,需要先利用奇异值分解(singular value decomposition,SVD)等算法提取原始全信道信息的特征向量,再将特征向量作为神经网络的输入。UE端的编码器网络用于对特征向量进行特征提取和23 压缩,再通过一个量化模块生成传输的比特流并反馈回BS;BS端的译码器网络用于解压缩和重建特征向量。实验结果表明,基于AI的隐式反馈方案在相同余弦相似度下,所需反馈比特数
52、明显少于Type I/II码本。为了验证基于AI的隐式反馈性能,中兴移动通信设计了接近于实际情况的加噪信道隐式反馈实验:仿真场景为3GPP中系统级UMA(urban macro honeycomb)信道,天线采用32T1R配置,对不同信噪比的高斯白噪声污染的信道数据情况下进行仿真,如1.1.1所示。结果表明,AI网络对不同噪声功率污染下的CSI反馈性能均有鲁棒性,AI方法在反馈准确性与开销性能上均超过eTypeII码本反馈方式。总体来说,基于AI的CSI反馈方案为进一步降低CSI反馈开销与提升反馈精度提供了新的可能性,具有极大的研究价值和发展前景。2.2.4 导频、信道估计、信道反馈、预编码联
53、合设计 在无线通信系统中很多模块实际上都是关联的,如MIMO系统的系统容量与预编码有关,预编码是基于信道估计(TDD系统基于互易性、FDD系统基于信道信息反馈)生成,信道估计又与导频序列的设计相关。单模块的AI优化虽然可以提升每个模块的性能,但从整体系统性能来讲并不能实现全局最优。因此,可以考虑将多个相关的模块用一个AI网络进行联合模拟并优化,实现多个参数的联合设计。文献71考虑一个FDD massive MIMO系统,实现导频序列设计和信道估计的AI网络联合优化。文献72将导频设计、信道估计、信道信息反馈、预编码等模块进行了联合设计;通过理论分析证明,在FDD多用户massive MIMO系
54、统中,上述“导频设计、信道估计、信道信息反馈、预编码”是一个分布式源编码(distributed source coding)问题,在多个用户端分别进行信道估计且不做信息交互,也可获得逼近多用户联合编码反馈时的最优性能。但目前分模块优化的方案相比上述最优性能还有一定的差距,多模块联合设计有较大的性能提升空间。图图2-14 导导频频设设计计、信信道道估估计计、信信道道信信息息反反馈馈、预预编编码码的的联联合合设设计计 值得注意的是,信道信息反馈子网络的最后一层是一个量化函数,该函数只有在输入为0时有梯度(且梯度为无穷大),在其他输入处梯度为0。因此,在反向梯度传播时24 会造成无梯度可以传的问题
55、。对此,需要对该函数进行梯度重写,正向传递的时候仍进行正常的量化,但在反向梯度传播时以重写的函数的梯度替代原函数的梯度。常用的重写方法有直通估计器(straight through estimator,STE),sigmoid调整的直通估计器和退火sigmoid调整的直通估计器等。可根据量化函数的输入取值范围和训练的收敛速度等具体情况,选择不同的梯度重写方法。2.3 AI 使能的端到端设计 此类研究的目的是在特定的信道环境下联合优化发射机和接收机969798。与传统人工设计相比,基于 AI 的端到端收发机设计往往呈现出不太一样的编码和/或调制样式9798。端到端优化设计更适合于具有各种非线性效
56、应的非典型信道,因为神经网络可以学习这些非理想的信道效应,而传统优化方法面对较多的非线性因素时往往出现性能下降的现象969798。最初的基于 AI 的端到端收发机设计示意图如图2-15 所示。该系统考虑一种在加性高斯噪声信道上进行通信的场景,其中收发两端的信号处理都通过神经网络实现。在仅考虑高斯信道时,我们可以直观地将神经网络学习的信号处理过程理解为编码加调制的结合,通过调整输入消息的种类和输出符号的比,可以实现不同码率的传输。可以发现,神经网络学习的星座图与传统意义上的正交幅度调制(quadrature amplitude modulation,QAM)星座图会有一定的差别,这种区别在调制阶
57、数较高的时候会更加明显。图 2-16 给出简单的误消息率结果,可以发现神经网络学习得到的信号处理过程可以达到甚至能够超过一些人类专家设计。相关思路不仅可以实现在 AWGN 信道下的消息传输,还可以实现在典型衰落信道下的消息传输11。图图2-15 基基于于AI的的端端到到端端收收发发机机设设计计(针针对对AWGN信信道道)25-20246810SNR10-410-310-210-1100BERUncoded BPSK(2,2)Autoencoder(8,8)Autoencoder(4,4)Autoencoder(2,2)Uncoded BPSK(8,8)图图2-16 基基于于AI的的端端到到端端
58、收收发发机机误误消消息息率率性性能能比比较较(AWGN信信道道)在进行端到端学习时,可以将实际系统的物理器件非线性和特殊需求作为约束条件。例如,文献97提出将控制 OFDM 峰值平均功率比(peak-to-average power ratio,PAPR)和相邻频道泄漏比(adjacent channel leakage ratio,ACLR)作为约束条件,通过端到端学习设计新波形,得到优化系统性能的目标。图图2-17 卡卡尔尔曼曼滤滤波波和和AI结结合合的的端端到到端端收收发发机机 尽管基于 AI 的端到端收发机可以在离线训练时适应特定类型的已知和静态多维信道,然而,实际部署时,时变的、受噪
59、声干扰的无线信道会导致预先训练的收发机出现性能次优的情况。此外,当不可预测的信道条件出现(等同于训练数据集出现异常值的情况),预训练的收发机的性能将急剧下降。产生此种情况的主要原因是因为组成收发机的神经网络单元在推理阶段都被冻结,且不具有适应环境变化可调整性。在线重新训练基于 AI 的收发机开销较大,因此文献229提出一种新型的端到端收发机设计方法。如图 2-17 所示,在自编码器结构中的编码器之后,级联基于卡尔曼滤波算法的控制层,形成卡尔曼滤波-自编码器级联结构。将该控制层的每个参数建模为随机游走的变量,并将其视为控制量,通过卡尔曼滤波的方法跟踪其参数变化并进行参数估计和训练,无需获取信道模
60、型。区别于现有自编码器方法对信道模型已知的依赖,26 该方案是一种高鲁棒性、快速收敛的端到端智能空口结构与训练方法。2.4 基于 AI/ML 的信道编译码技术 自香农提出信道编码定理以来,学界致力于寻找能够逼近香农限的编码方案。随着时间的推移,学者们提出了汉明码、循环码、卷积码、Turbo 码、低密度奇偶校验(low density parity check,LDPC)码以及极化码(Polar code)2。其中 LDPC 码能够在码长趋于无限时,性能无限逼近香农限;而 Polar 码是目前唯一一种被证明能够在特定信道下达到香农限的编码方案。随着深度学习在无线通信物理层研究中的逐步应用,深度学
61、习在信道编译码问题上已经有了一定的突破。与传统的信道译码方法相比较,基于深度学习的译码器在性能上有显著的改善,但同时由于维度爆炸,深度学习应用于编码技术也存在一定的局限性。目前,学界涌现出一批性能优异的基于深度学习的编译码算法。Nachmani 等提出了一种基于深度学习的改进置信传播算法(belief propagation,BP)101107.Cammerer 等提出了一种基于深度学习的 Polar 码分段译码算法109。Liang 等提出了一种基于 CNN 的迭代 BP-CNN 结构110,用于相关噪声下的信道译码。Wang 等提出了一种 LSTM 网络辅助的 SCF 译码算法111。Ch
62、en 等提出了一种低复杂度的 LSTM网络辅助的 CA-SCLF 译码器112。AI/ML 在信道编译码方面的应用主要体现在两个方面。一方面,可以将 AI/ML 算法和神经网络直接嵌入通信链路,替代译码器。例如,在文献24中,DNN 被用于 Polar码和随机码的译码,可以以更低的复杂度达到最大后验概率算法(maximum a posteriori,MAP)性能。文献25使用 DNN 进行 turbo 码译码,解决传统 max-log-MAP 算法将非线性简化为线性导致的性能损失问题。另一方面,也可以利用 AI/ML 方法进行信道编码方案的设计。2.4.1 基于 AI/ML 的信道编码方案设计
63、 注意到利用 AI/ML 方法的学习能力,可以设计信道编码方案,特别是在一些没有理论指导的场景中(例如在列表译码算法下的 Polar 码设计),AI/ML 可以找到比人工设计性能更好的码。例如,文献27使用遗传算法(genetic algorithm,GA)进行 Polar码设计,而文献28利用 RNN 进行 LDPC 码的度数分布设计。在文献4445中,作者使用遗传算法和强化学习(reinforcement learning,RL)框架进行 Polar 构造序列的设计。如图 2-18 所示,基于 AI设计的 Polar 码性能优于 DE/GA 方法得到的 Polar 码。27 图图2-18
64、基基于于AI方方法法设设计计的的Polar码码性性能能优优于于DE/GA方方法法 2.4.2 基于 DNN 的编译码算法 Nachmani 等提出了一种基于深度学习的改进 BP 算法101107,该方法通过对Tanner 图的边赋予权值,推广了标准的置信传播算法。然后,作者使用深度学习的方法训练这些边缘的权值。置信传播算法的一个众所周知的特性是性能对传输码字的独立性。基于深度学习的改进 BP 算法的一个关键特性就是译码器保留了这个特性。此外,此属性允许网络只学习单个码字,而不需要学习随码长增加数量指数级增加的全部码字,能够很大程度上解决编译码过程中的维度爆炸问题。Cammerer 等提出了一种
65、基于深度学习的 Polar 码分段译码算法109。在这项工作中,作者证明了当译码器的子块被神经网络取代时,能够提升传统的极化码迭代译码算法的性能。因此,作者将编码图划分为更小的子块,并分别对它们进行训练,接近每个子块的 MAP 性能。所得到的解码算法是非迭代的,并且固有地实现了高水平的并行化,同时其误比特率(BER)性能十分优异。2.4.3 基于 CNN 的译码算法 Liang 等提出了一种基于 CNN 的迭代 BP-CNN 结构110,用于相关噪声下的信道译码。本文设计了一种新的接收机结构来解决信道噪声中存在相关性时的译码问题。这种结构将一个经过训练的 CNN 与一个标准的 BP 译码器连接
66、起来,接收到的符号在BP 和 CNN 之间迭代处理,因此被称为迭代 BP-CNN。在接收端,首先由 BP 解码器对接收到的符号进行处理以获得初始解码结果。然后,从接收到的符号中减去估计的发射符号,而得到信道噪声的估计。由于编码误差的存在,信道噪声估计不准确。然后,将信道噪声估计输入到 CNN 中,进一步消除了 BP 译码器的估计误差,并利用噪声相关性得到更准确的噪声估计。BP 和 CNN 之间的迭代将逐步提高译码信噪比,从而获得更好的译码性能。其算法示意图如图 2-19 所示。28 图图2-19 BP-CNN译译码码算算法法 为了训练一个性能良好的 CNN 模型,作者定义了一个新的损失函数,它
67、不仅涉及噪声估计的精度,而且还涉及估计误差的正态性检验,即测量估计误差服从高斯分布的可能性。在 CNN 训练中引入正态性检验,与使用标准二次损失函数相比,进一步降低了迭代译码的误码率。该算法性能如图 2-20 所示。可以看到基线 BP-CNN 和增强后的 BP-CNN 在相关噪声下都取得了显著的性能提升。在强相关情况下,当=0.8时,BP-CNN 在误码率为-410时可将译码性能提高约 3.5dB。需要强调的是,在标准 BP 译码器中,这种性能增益不能通过更多的迭代来补偿,因为 BP(50)已经达到饱和性能。在=0.5的中等相关性情况下,性能增益变小,因为相关性较弱,采用 CNN 的好处较小。
68、对于=0且噪声变为独立同分布(即标准 AWGN 信道)的特殊情况,所提出的方法与标准 BP 译码的性能类似。图图2-20 BP-CNN译译码码性性能能对对比比 2.4.4 基于 LSTM 网络的译码算法 Wang 等提出了一种 LSTM 网络辅助的 CA-SCF 译码算法111。极化码串行抵消(successive cancellation,SC)翻转译码的关键是准确识别第一个错误位。由于缺乏解析解,最优翻转策略被认为是难以实现的。为解决这个问题,作者提出了一种深度学习辅助的 SC-flip 算法。其系统示意图如图 2-21 所示。29 图图2-21 LSTM-aided SCF算算法法示示意
69、意图图 具体地说,在每次 SC 译码尝试之前,利用 LSTM 网络来定位第一个错误位,或者撤消先前的“错误”翻转。在每次 SC 译码尝试中,利用在上一次 SC 译码尝试中导出的对数似然比(log likelihood ratios,LLRs)序列来决定要采取的操作。据此,作者提出了一种 LSTM 网络的两阶段训练方法,即在第一阶段学习定位第一个错误位,然后在第二阶段学习撤销“错误”翻转。仿真结果如图 2-22 所示。显然,与传统 SCF 算法相比,该方法能更准确地识别错误比特,并获得更低的块错误率(block error rate,BLER)。图图2-22 LSTM-aided SCF性性能能
70、对对比比 图图2-23 LSTM-Aided CA-SCLF算算法法性性能能比比较较 Chen 等提出了一种低复杂度的 LSTM 网络辅助的 CA-SCLF 译码器112。其将LSTM 应用于 CA-SCLF 译码器,可以有效地从顺序译码的过程中产生的 LLR 中提取特征,增强误码预测能力。实验结果如 1.1.1 所示,该算法能有效地提高 BLER 性能30 0.11dB。同时,对输入数据进行预处理和输出降维,可以显著降低 30%以上的内存需求和计算复杂度,使其设计更适合于硬件实现。2.4.5 基于对抗生成网络译码算法 针对 DNN 信道解码的局限性,小米公司提出一种基于生成对抗神经网络进行低
71、密度奇偶校验码译码的方法。提出的基于对抗生成网络的低密度奇偶校验码译码模型如图 2-24 所示。生成器接收到经过 BPSK 调制后通过 AWGN 信道的含有噪声的码字,在生成网络端学习低密度奇偶校验码的译码规则,并生成译码结果。初步生成译码结果。并将此结果输入辨别器,对译码结果和真实信息序列进行比对,判别器给出是或非的结果,得到结果后进行反向传播,进行反向传播时首先判别器不更新,生成器更新,更新之后对判别器更新,生成器不更新。生成端和辨别端更新后,继续输入数据来训练对抗生成网络的低密度奇偶校验码译码算法。对译码生成器以及译码辨别器进行更新后,如果用于本轮训练的一个或多个信息序列样本中存在尚未经
72、过译码生成器和译码辨别器处理的信息序列样本,则将从尚未处理的信息序列样本中任意一个获得的接收码字样本输入译码生成器以获得与该信息序列样本对应的译码码字样本,并将该信息序列样本和译码码字样本输入译码辨别器以确定能够区分该二者,如果能够区分,则再次对译码生成器和译码辨别器进行更新,直至用于本轮训练的一个或多个信息序列样本中没有未经过译码生成器和译码辨别器处理的信息序列样本,即用于本轮训练的所有信息序列样本均已被使用,则可以开始下轮训练。如果确定无法区分译码码字样本和信息序列样本,结束迭代训练并获得预训练的 GAN 模型。如果译码辨别器无法区分出译码码字样本和信息序列样本,这表明译码生成器能够根据接
73、收码字样本还原信息序列样本。图图2-24 基基于于对对抗抗生生成成网网络络的的低低密密度度奇奇偶偶校校验验码码译译码码模模型型 仿真结果如图 2-25 所示,结果表示了基于对抗生成网络的 LDPC 码的译码结果,并与 LDPC 码传统的译码算法 BP、LLR-BP、Min-Sum 译码进行了比较。通过仿真图可以看出,网络实现了对 LDPC 码的译码,其译码误码率优于传统译码算法。31 图图2-25 对对抗抗生生成成网网络络的的LDPC码码译译码码结结果果 2.5 基于 AI/ML 的调制与波形技术 早期的工作中,AI/ML 方法主要用于在多种调制方式混合的信号中识别调制方式29,这种应用在无线
74、通信领域实际场景并不多。和信道译码一样,神经网络也被用于替代通信链路的解调模块30。对调制解调模块的优化还体现在星座图的设计上,此时,调制和解调常常联合优化。文献31使用如图 2-26 所示的自编码器进行调制星座的位置整形和概率整形联合优化,并得到相应的解调神经网络。这个方法得到的调制解调模块性能非常接近香农极限。AI/ML 方法还可以针对特定场景进行星座图设计,例如文献32中,使用 AE 结构设计光纤通信中使用的调制星座图,以对抗光纤信道的非线性。图图2-26 基基于于autoencoder的的调调制制解解调调联联合合设设计计 AI/ML 方法可以用于直接进行类似 OFDM 波形的设计,例如
75、文献38中,不使用DFT 操作,可以直接用 DNN 得到信号的波形。AI/ML 方法也用于低峰均功率比(peak to average ratio,PAPR)波形的设计,例如,文献39使用如图 2-27 所示的 AE 结构,设计得到低 PAPR 波形。此外,AI/ML 方法也被用于作智能波形的识别网络,如图 2-28所示。32 图图2-27 基基于于AE的的低低PAPR波波形形设设计计 图图2-28 基基于于AI的的智智能能波波形形识识别别网网络络 2.6 基于 AI/ML 的信源信道联合编码技术 传统的通信系统通过信源编码、信道编码分别实现图像/视频的压缩和传输,并将信源和信道编码划分为两个
76、模块独立设计。信源信道分别独立编码具有设计简单、模块化的特点。基于香农分离定律,信源信道独立编码在码长无穷大的条件下是理论最优的。然而,包括物联网,自动驾驶和触觉互联网在内的许多新兴应用都要求极低延迟,带宽和能量约束的条件下传输图像或视频数据,这限制了在计算上需要依赖较长编码的信源信道独立编码技术的使用。对此,Gamal-Kim 从理论上阐述了多种信源信道联合编码模式,可以利用信源的相关性将通信系统的信源编码和信道编码作为一个整体来进行优化设计,取得比信源信道独立编码更好的性能40。传统的信源信道联合编码允许用户根据信道或网络条件改变信源编码参数,或是根据信源特性选择信道编码、调制及网络参数。
77、其本质是研究人员使用专家知识精巧的设计信源信道编码方案。其中的代表是由 Wu 团队和 Katabi 团队在 2010 年提出的Softcast 模式4142,通过变换对输入图像或视频进行处理,并将系数直接调制为密集的星座图进行传输,须进行常规的量化、熵编码和信道编码。Softcast 方案的局限性33 在于需要提前获得确定的信道模型,而真实环境下的信道特性往往是不可预测的。近年来,深度学习技术在图像、语音压缩等领域的发展为 JSCC 的设计提供了新的思路。其中,自编码器作为神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器内部有一个隐藏层,可以产生编码表示输入。该网络可看做由两部分组成
78、:一个由函数 h=f(x)表示的编码器和一个生成重构的解码器 r=g(h)。在这种结构的启发下,近期有研究提出用深度神经网络代替传统编解码,设计端到端的信源信道联合编码结构43。鉴于自编码器编解码器无监督联合优化的特点,可以考虑使用人工神经网络对信源压缩和信道编码进行联合设计,从而使通信系统达到端到端的最优性能。具体的,文献43受无编码传输的启发,编码器完成信源编码+信道编码+调制的功能,解码器完成解调+信道解码+信源解码的功能,其系统模型如图 2-29 所示。该网络的编码器由 5 个卷积层+PRELU 激活函数的模块组成,解码器由 5 个转置卷积层+PRELU/Sigmoid 激活函数的模块
79、组成。信道层作为不可训练层位于编码器和解码器之间。图图2-29 基基于于AI的的信信源源信信道道联联合合编编解解码码方方案案的的神神经经网网络络结结构构图图 图 2-30 对比了 CIFAR10 数据集下评估了在不同的压缩比(k/n)条件下基于 AI的信源信道联合编解码和 JPEG/JPEG200+方案的峰值信噪比(Peak Signal to Noise Ratio,PSNR)性能。该性能仿真表明:在恶劣的信道条件下(SNR=0dB),信源信道独立编码方案无法进行无差错传输导致译码失败,基于 AI 的信源信道联合编码方案的 PSNR 高于 20dB,可以较好地进行传输。在中(SNR=10dB
80、)、高(SNR=20dB)性噪比和有限的信道资源条件下,k/n 刻画需要进行局部扫描的波束子空间的大小。图图2-35 基基于于波波束束训训练练与与跟跟踪踪的的毫毫米米波波单单用用户户混混合合预预编编码码原原理理图图 最优的波束扫描方案(即整数对)与环境相关,可通过使用交互式在线机器学习方法(即 Bandit Learning 方法)实现,而 Bandit Learning 方法的核心是定义行动空间和奖励函数。图2-36比较了不同算法的有效可达速率性能,Algorithm 1和2基于波束指标差分技术并通过 Bandit-learning 实现,Bandit-learning 分别采用 贪婪搜索与
81、置信区间上界(upper confidence bound,UCB)算法实现。由图 2-36 可以看出提出的算法可以获得接近理想算法(即 Oracle-Aided 算法,波束训练开销为零且获得最优性能)且远优于其他算法的性能。图图2-36 不不同同算算法法的的有有效效可可达达速速率率性性能能比比较较 39 2.8.3 多用户毫米波 MIMO 混合预编码 多用户情况则更为复杂。文献118研究了基于 AI 的多用户毫米波 MIMO 系统混合预编码问题。基于不完全的信道状态信息,通过最大化可达速率来设计混合预编码器和合并器。具体的过程如下。首先解决混合预编码问题,得到训练数据样本标签,接着向网络提供
82、不完全 CSI 来预测混合预码器与合并器。也就是说深度学习的网络提供了一种信道矩阵与预编码器之间的非线性映射关系。为了获得鲁棒的性能,在离线训练阶段向网络提供了一定比例的被噪声破坏的信道实现。因此,在测试阶段,当网络预测预码权重时,则不一定需要完美的 CSI。通过该方法能较好地处理信道矩阵损坏的情况,并实现较好的可达速率。基于通信本质是与时变环境持续交互这一基本事实,文献105提出了一种基于智能交互式学习范式的毫米波多用户预编码算法如图 2-37 所示。相应的通信模型模块与自适应学习模块主要组成部分及作用如下:a)通信模型模块主要由波束扫描模块和数字预编码器优化模块构成,主要任务是确定模拟与数
83、字预编码器,其中模拟预编码器通过波束扫描的方式确定,而数字预编码器通过成熟的优化技术获得。由于波束扫描的范围与信道环境变化密切相关,因而由自适应学习模块提供。b)自适应学习模块基于积累的历史经验信息实时预测最优波束子空间,由于最优波束子空间受到不断变化的物理环境的影响且不断变化,自适应学习模块必须能够实时感知环境变化的规律并从中提取所需要的概率统计信息。智能交互式学习范式可通过强化学习算法具体实现,核心是定义行动空间、状态空间及回报函数,行动空间可以通过波束指标差分技术实现105,状态空间通过波束图像技术实现,回报通过求解相应优化问题获得。图图2-37 基基于于智智能能交交互互式式学学习习范范
84、式式的的毫毫米米波波多多用用户户预预编编码码算算法法 40 2.8.4 移动自适应协同波束成形 移动情况下的自适应波束成形也有学者开展了一些探索115。图 2-38 给出了所考虑的移动系统框图。图图2-38 毫毫米米波波协协同同波波束束成成形形系系统统框框图图 由于多个基站同时为用户提供服务,协同波束成型系统提供了抗阻塞的能力、多样性和鲁棒性,这直接提高了系统的覆盖率、可靠性和延迟性能。然而,该系统设计的主要挑战是实现高数据速率的要求,因为训练和设计 RF 波束成型的时间开销可能非常大,特别是对于高移动用户。基于这一动机,该方案着重于开发有效的信道训练和波束成型设计策略,以最大限度地提高系统的
85、可达速率,并使高速移动场景下的mmWave 应用成为可能。直观上,波束训练的结果是一个关于环境设置(譬如用户/BS 位置,房间家具,街道建筑和树木等整个场景)的函数。然而,这些函数难以刻画,因为它们会涉及到很多的参数,且对于每种环境设置都是惟一的。因而文献115所提方案将深度学习模型与通信系统设计相结合,就是要学习波束训练结果与相关环境设置的隐式映射函数。该机器学习模型利用基站端接收到的全波束模式或准全波束模式的导频信号,预测出最优的射频波束成形矢量。这些在 BSs 接收到的导频信号是来自用户的传输信号与环境中不同元素相互作用的结果,通过传播、反射和衍射。因此,这些在不同的基站端联合接收的导频
86、信号,刻画的是环境和用户/BS 位置的一个特征,也就是我们学习波束成形方向所需要的特征。该系统分为两个阶段运行,即在线学习和深度学习预测阶段。(a)如图 2-39 所示,在学习阶段,用户发送导频信号,基站端使用波束成形码本中的向量以及全向波束进行接收。因此,深度学习模型可以学习所有 BS 上联合捕获的 OFDM 全向接收信号与不同射频波束形成矢量带来的系统速率之间的隐式关系。(b)如图 2-40 所示,在预测阶段,系统依据训练好的学习模型,基于基站端接收到的全向信号来预测使得系统可达速率最大的最优波束成形矢量。41 图图2-39(左左)在在线线学学习习阶阶段段模模型型 图图2-40(右右)深深
87、度度学学习习预预测测阶阶段段模模型型 2.8.5 基于 AI/ML 的波束漂移抑制技术 现行的毫米波波束形成方案通常假设在给定的时隙中,信道路径的到达角/分离角是不变的,因此最优的波束方向也是不变的。但是由于用户不断移动等导致的信道环境快速变化,信道的到达角/分离角实际上是连续变化的,又由于实际波束的非理想性,已经对齐的波束的主瓣中心角很快偏离实际的信道方向,导致系统性能的下降,这一现象被称之为波束漂移。需要指出的是,即使环境变化极慢,波束漂移效应相对较弱,但只要发生波束切换,波束漂移效应便不可避免,因而为了获得更好的性能需要抑制波束漂移效应。在现行的技术方案中,当通过波束训练或其他方法估计出
88、信道路径的到达角或分离角后,便基于估计的信道方向设计波束形成向量/矩阵进行数据传输,典型的方案是使用主瓣中心角匹配估计的信道方向的窄波束进行数据传输。这一方案忽略波束漂移效应会引起系统性能的下降,因而需要进一步优化波束形成方案。由于波束漂移效应与环境变化密切相关,感知环境变化的快慢便成为抑制波束漂移效应的基础和关键。为了抑制波束漂移现象,文献103提出了如 0 所示的通信方案,主要包括两个模块,即波束对齐/训练模块与数据传输模块。波束对齐/训练模块主要用于估计信道的方向,依据波束变化的局部性原理,即波束切换通常仅仅在以当前波42 束为中心的一个较小的范围内,故可以使用窄波束进行波束训练以提高角
89、度估计的精度。图图2-41 波波束束漂漂移移效效应应抑抑制制的的方方法法原原理理图图数据传输模块设计的核心是感知信道环境变化的快慢,并结合估计的信道方向选择/设计适当的波束或波束子集进行数据传输,主要方法有两种:(1)依据感知的信道环境变化的快慢,自适应地调整数据传输波束的宽度,典型方法是使用多分辨率码书;(2)数据传输波束的宽度不变,但采用更高的频率进行切换,且切换的频率由信道环境变化的快慢决定。具体的实现方法是使用基于上下文的 Bayes Bandit 算法,核心是定义行动空间、状态空间和奖励等。图 2-42 提供了数据传输波束宽度固定方案(SCB)与为抑制波束漂移效应而设计的数据传输波束
90、宽度自适应优化方案(BWO)的仿真性能比较,即采用第一种方法设计并通过多分辨码书实现。由图可以看出由于能够有效地抑制波束漂移效应,与波束宽度固定的方案相比,波束宽度自适应的方案可以获得更好的有效可达速率性能。图图2-42 有有效效可可达达速速率率-数数据据传传输输波波束束宽宽度度固固定定与与自自适适应应优优化化 2.8.6 基于 AI/ML 的波束跟踪技术 虽然波束成形可以增强用户端的信号强度,提高覆盖,但前提是波束方向需要和目标用户对准。这一点需要通过波束训练实现。一旦波束的指向偏离用户,用户反而43 接收不到高质量的无线信号,可谓是差之毫厘,谬以千里。在移动通信场景下,用户移动与随机遮挡导
91、致信道时变,需要反复的进行波束训练获取实时准确的信道信息;但是工作在毫米波和太赫兹频段的大规模天线阵列规模较大,传统穷举式的波束训练方式会产生巨大的导频开销。因此常采用波束跟踪辅助波束训练的方式。根据信道的时变规律,以低开销快速的获取信道信息,大开销的波束训练仅在追踪失败后重新开始。可以说,快速高效的波束跟踪算法是保证移动通信质量的关键。波束跟踪的关键在于精准的信道预测,对信道如何随时间变化进行一定的预测,以预测的结果作为先验知识,进行波束跟踪。为了减少训练开销,一个可行的方法是从以往的波束训练中提取和利用信息,以减少波束搜索空间,并为以后的训练做准备。这种想法和机器学习相结合,产生了基于 M
92、L 的波束训练算法122123124。但是这些方法都是基于监督学习,事先需要大量的数据做神经网络的训练。最近,文125提出来基于强盗测试算法(Bandit learning)的波束跟踪算法125:该文将波束跟踪建模为一个随机 bandit 问题。为了感知环境的变化,利用最优波束序号的偏移,提出了基于 Bandit learning 的波束跟踪算法。该算法针对基于码本的波束跟踪。波束成形的预编码取自一个预先设计的码本,一般该码本的码字是按照角度排列的 DFT 向量。2.9 基于 AI 的多用户接入技术 随着设备数量的爆发式增长以及大规模 MIMO 系统的广泛应用,传统的多接入技术无法满足大规模设
93、备的接入要求,非正交接入技术通过对时、空、频和功率等多个维度资源的复用,可以保证用户的接入性能,同时也使得多用户检测的计算复杂度问题变得极具有挑战性。传统的压缩感知(compressed sensing,CS)方法虽然能利用稀疏性减少复杂度,但其性能和复杂度还有很大的改进空间。基于深度学习的多接入技术126是近年来 AI 在无线通信中应用的研究热点之一,国内外众多研究机构均对该方向开展了深入探索,相关工作集中于依据各类信号检测算法的特性设计神经网络,以实现智能化的多用户检测、用户活动性(用户激活)检测2-4、多用户 MIMO检测5-11或多用户干扰分离137,提高检测性能的同时极大地降低了计算
94、量。如前文所述,基于 AI 的多接入技术可分为模型驱动方法和数据驱动方法。模型驱动方法的网络结构由可训练变量的迭代算法设计而成,学习时使用现有算法的结果作为初始起点,并基于反向传播算法优化变量,如智能用户活动性检测网络DNN-MP-BSBL127 以 及 前 文 提 到 的 智 能 MIMO 检 测 网 络 DetNet131 和OAMPNet134。而数据驱动方法的网络学习过程是模型不断拟合现实数据的过程,44 如智能用户活动性检测网络 D-AUD128和 BRNN135 以及智能 MIMO 检测网络DNN-dBP133和 MMNet136。图图2-43 基基于于AI方方法法的的多多用用户户
95、接接收收机机 针对非正交接入(non-orthogonal multiple access,NOMA)系统中的多用户干扰问题,华为使用 AI/ML 方法设计了如图 2-43 所示的多用户接收机46,其性能优于传统接收机。2.10 基于 AI 的活跃用户检测 在物联网场景下的免授权随机接入系统中,基站需要进行用户活动性检测来使识别有哪些用户处于激活状态,以便后续对传输数据进行解码,确保基站和用户之间的有效通信,因而其检测的准确度大大影响着系统的整体性能。目前有关活跃用户检测算法的大量研究仍是基于传统的压缩感知算法进行改进,性能提升非常有限。为克服传统压缩感知算法的技术限制,解决大规模免授权接入系
96、统的活跃用户检测问题,国内学者在深度学习的基础上构建了 LDS-OFDM(Low-density signature-OFDM)系统的活跃用户检测(active user detection,AUD)与信道估计(channel estimation,CE)方案,根据基于块稀疏表示的贝叶斯学习算法设计了 DNN-MP-BSBL(deep nneural network-aided message passing-based block sparse 45 bayesian learning)框架127。该算法迭代一次的网络结构及其每层实现的操作如图2-44 所示。图图2-44 DNN-MP-BS
97、BL结结构构(N=3;K=6;Lt=2;dc=2)由网络结构可知,DNN-MP-BSBL 将消息传递的迭代过程从因子图转移到神经网络中,因此促进算法收敛的同时也提高了检测结果的准确度。(a)不同过载因子下 AUD 成功概率比较 (b)AUD 成功概率随活跃用户数目变化曲线图图2-45 D-AUD与与传传统统检检测测算算法法性性能能比比较较 DNN-MP-BSBL 解决的是联合 AUD 和 CE 问题,针对 AUD 问题,近期,精通压缩感知理论的韩国学者B.Shim的团队提出了基于AI的上行链路免授权NOMA系统的活跃用户检测方案D-AUD(deep active user detection)
98、129。利用某一个时刻活跃用户的稀疏性,活跃用户检测问题可以转化为支持向量检测的问题,并用神经网络直接学习接收信号到活跃用户索引集合间的映射关系。D-AUD 的训练是监督学习的过程,基于人工生成的大量训练数据,网络最终能收敛到一个较为稳定的状态。从 1.1中可以看出,在不同的过载条件下(过载因子=用户数/子载波数),D-AUD 的活跃用户检测成功率均明显优于传统的 LS-BOMP、MMSE-BOMP 和 AMP 算法,尤其是在46 过载因子较大的时候,传统算法由于感知矩阵的欠定程度严重,性能也急剧恶化,而D-AUD 则在过载因子增大和活跃用户数目增多时表现出了较强的鲁棒性。2.11 基于 AI
99、 的定位技术 目前,消费者市场,比如商场导购、停车场反向寻车、家人防走散、展厅自助导游等,垂直行业,如人流监控和分析、智慧仓储和物流、智能制造、紧急救援、人员资产管理和服务机器人等,都对定位服务提出了更高精度的需求。总之,高精度定位是未来智能生活和智能工厂普及化的基石。然而,在很多应用场景中,多径,NLOS,室内覆盖和同步问题都是实现高精度定位难以跨越的障碍。3GPP 在 NR Rel-16 标准中引入了多种定位方法,包括基于时间测量的方法和基于角度的方法。之后,3GPP在 R17 通过定位增强的立项,旨在满足消费者市场和企业市场的高精度位置服务需求。3GPP NR Rel-17 标准的应用场
100、景主要是商业场景以及 IIOT 场景。精度要求非常高,最高达到分米级。特别是在 IIOT 场景,水平方向要求定位精度小于 0.2m。然而,目前经典的定位算法,比如 TDOA 算法,比较依赖场景中的 LOS 基站个数,当 LOS 基站的个数少于4 个时,定位的精度一般都很难达到要求,而在 IIOT 某些场景中,LOS 概率都是比较小的。因此很难达到 0.2m 的定位精度要求。比如 DH(3GPP 仿真场景之一)在各种参数配置下的 LOS 概率如图 2-46。0500300Distance(m)00.10.20.30.40.50.60.70.80.91CDF(%)LOS pr
101、obability vs DistanceInF-SLInF-DLInF-SHInF-DH图图2-46 不不同同场场景景下下LOS的的概概率率 也就是说在 InF-DH 和 InF-DL 下,最多只能保证 1-2 个 LOS 基站,在这种情况下,定位的精度误差一般在 16m 以上。因此需要进一步研究新的定位算法,比如利用 AI的高效的特征提取功能,来提取基站到用户信道测量信息的抽象特征,可能会对上述问题带来重大的突破。利用神经网络的非线性优势,可借助所有信道测量信息,包括非直射径的信道信息进行特征提取并训练,达到更高的定位精度要求。47 2.12 小结 截止目前,AI/ML 技术已经被研究应用
102、到无线物理层的方方面面,这包括无线环境建模与感知、信道估计、预测与反馈、端到端的设计、信道编译码、用户接入检测等等。初步的研究结果表明,AI/ML 技术在无线物理层方面具有独特的优越性。例如,通过 AI 可以实现多维特征信息的感知与融合,从而实现基于 AI 的精准感知定位,对比传统的经典算法(十几米定位误差),AI 定位的精度达到了分米级;在信道估计方面,AI 使能的技术,在各种场景下达到接近基于完美信道估计的表现,并优于传统的信道估计方法。但是随着深度学习在无线通信物理层研究中的逐步应用,深度学习在无线物理层技术方面已经有了一定的突破。与传统的模型驱动的物理层技术相比较,基于深度学习方法在信
103、道估计、反馈、接入等方面的性能上有显著的改善,但同时由于维度爆炸,深度学习应用于编码技术、环境重建、接收机设计等方面也存在一定的局限性。48 第三章 基于AI/ML的链路层技术 未来无线通信系统将由不同的接入制式,多样的网络部署方法和混合异构网络共同组成,旨在实现数据传输速率、网络覆盖率和可连接设备数量等方面的大幅提升以及网络时延和设备能耗的持续降低。在未来无线通信系统中,无线资源分配以及系统内部与系统之间的干扰协调是业界关注的一大研究热点。面对状态多变、架构复杂的未来网络,传统模型和算法难以提供高效可靠的技术支撑。基于人工设计的传统的资源管理方法将很难满足日益苛刻的通信服务质量需求。同时,下
104、一代无线网络期望更多地考虑用户环境以及行为特征,从而提供更高质量的个性化的通信服务11。为解决这些问题,面向下一代无线网络的资源管理方法亟需理论和范式上的创新与突破。另一方面,基于 AI 的最优控制方法在近几年有着迅猛的发展,其中最主要的发展方向为强化学习。强化学习能够通过与环境的交互,学习环境的特征,从而自适应地实现最优决策。特别是深度强化学习(deep reinforcement learning,DRL),能够以极低的计算成本智能地处理复杂系统的最优控制问题12。不同于传统模型和算法,AI技术对复杂多变的网络环境和网络结构具有很好的适应性,并且能从已有数据和先验信息中提取出未知特征以推演
105、出高效的资源调度和干扰协调方案。由此,应用先进的Al 技术解决异构无线资源调度和干扰协调问题逐渐发展为无线网络技术研究中一类新兴的研究手段。基于强化学习的无线资源管理作为当前的研究热点,得到国内外诸多著名研究团队与企业的推进和发展13-23。目前,在频谱资源分配13,车联网14,无人机通信16,绿色通信17等诸多方面,已有较为成熟的研究成果。这些研究成果表明,相比基于人工设计的传统方法,基于强化学习的无线资源管理在计算成本与服务质量上的表现均有提升。在无线通信干扰协调、资源调度(包括功率分配、信道分配、接入控制)和集中式分布式架构方面,AI 已经有了各种研究和应用。3.1 基于 AI 的功率分
106、配 文献148中,作者考虑了由单个 MBS 和若干个 SBSs 构成的混合供能异构网络,基站可以消耗传统电网的能量也可以消耗可再生的新能源。由于在移动环境中准确和完整的环境模型是未知的,论文构建了基于无物理模型(model-free)的强化学习模型用于指导网络的用户调度和能源分配,最大化系统的能量利用率。具体的,作者提出利用参与者-批评者(actor-critic)强化学习算法来得出最优随机策略。其示意图如下:49 图图3-1 Actor-critic 强强化化学学习习框框架架 该算法由于结构特征具有收敛性。仿真结果证明当网络提供更多的可再生能源时,所提出的算法可以提高资源利用率。文献150中
107、,作者提出一种分布式 model-free 强化学习算法实现所有发送机的加权效用和最大化目标。具体的假设信道 CSI 的随机变化和延迟都是固有的,每个发送机收集邻居的 CSI 和 QoS,采用深度 Q-learning 决定自身的发送功率。论文提出的算法可以得到一个相比于集中式算法更快的次优算法。文献155在进行功率分配的同时,考虑了信道间存在干扰,并基于此提出了一种基于 Q-learning 的功率分配策略。该策略根据所观察到的无线电环境状态和干扰功率以及描述每个状态作用对的折扣长期回报的质量函数或 Q 函数来选择发射功率。该方案在不考虑信道模型和干扰模型的情况下,在 MIMO NOMA 动
108、态抗干扰博弈中推导出多用户最优策略。3.2 基于 AI 的信道分配 文献151研究了毫米波超密集网络中的频谱管理问题,并将时空复用作为提高频谱利用率的一种方法。作者将频谱管理问题归结为设备间的非合作博弈,证明了该问题是一个保证纳什均衡(nash equilibrium,NE)存在的一般潜在博弈。为了帮助设备在没有全局信息的情况下实现 NE,作者设计了一种新颖的分布式 Q-learning 算法,使得设备能够从个体奖励中学习环境。每个设备的动作和回报分别是信道选择和信道容量。经过分析得出学习主体间的耦合有助于加速学习的收敛。仿真结果表明,该方案比多条对比基准线收敛更快、更稳定,且延迟小。不同于已
109、有工作中直接利用经典的强化学习方法,文献152则设计了一种全新的包含递归神经网络的强化学习方法来处理 LTE-U 系统中许可和未授权频带的管理。该问题被描述为一个以 SBSs 和 MBS 为博弈参与者的非合作博弈,且每个 SBS 已知的50 网络信息有限。为了实现混合策略的 NE,提出了一种基于回声状态网络(echo state networks,ESNs)的多智能体强化学习方法。与传统的 RL 方法相比,该方法可以在不需要太多训练数据的情况下快速地学会分配资源。在算法执行过程中,每个 BS 只需要广播当前所采取的动作及其最佳动作。仿真结果表明,与 Q-learning 相比,该方法下第 50
110、 百分位用户的速率总和提升达到 167%。在部署异构网络时,干扰是实现高频谱效率的最大限制因素之一。文献156研究了一个异构网络中的多目标、频谱访问问题,旨在实现 QoS 约束下同时最小化在微蜂窝处接收的帧内/层间干扰以及从微蜂窝到演进基站(evolved node B,eNB)的层间干扰。由于缺乏全局完整的信道信息,节点数量未知等因素,作者提出了一种基于联合效用和策略估计的强化学习方法,该方法包含两个序列层次,第一级的目的是为飞蜂窝识别可用的频谱资源,第二级负责资源的优化选择。仿真结果表明,该方法使得层内和层间干扰的显著减少,从而实现更高的小区吞吐量。文献147提出了一个基于机器学习的多无人
111、机管理框架减轻无人机小区之间的干扰,旨在保证地面用户所需的数据率的同时,最大限度地提高无人机小区的能源效率。该框架的关键技术包括用于控制发射功率的亲和传播干扰管理(APIM)方案和用于位置重排的 K-means 位置调整方案。与已有的方案相比,该方案减少干扰并提高 25的能效。3.3 基于 AI 的接入控制 接入控制的本质是复用,根据资源复用时是否有可能会发生碰撞冲突,我们将接入控制分为无冲突的调度和基于竞争的随机接入。文献15提出了一种基于深度Q-learning(deep Q-learning,DQL)的物联网传感器的动态信道接入方案。在每一个时隙,传感器选择 M 个信道中的一个来传输它的
112、数据包。信道状态低干扰,即表示成功传输,反之高干扰,代表传输失败。由于传感器在选择了通道后只知道通道状态,因此传感器的优化决策问题可以表述为部分可观察马尔可夫决策过程。文献154中则考虑了一种多传感器场景,并使用 DQL 处理联合信道接入和包转发。该模型如图 3-2所示,其中一个传感器作为中继,将从邻近传感器接收到的数据包转发给接收器。该传感器装有缓冲区以存储所接收的数据包。传感器在每个时隙中选择一组信道进行数据包转发以最大化其效用,即传输数据包的数目与传输功率的比率。本文证明了传感器的效用函数是有界的,保证了算法的收敛性。51 图图3-2 物物联联网网中中的的联联合合信信道道接接入入和和包包
113、转转发发 尽管调度可以完美规避冲突,但其需要预先设计策略,导致自适应能力与可扩展性较差。相反,基于竞争的随机接入算法往往无需中心控制节点或者少量中心控制信号,通过精巧设计的分布式算法实现在复杂网络环境中的接入控制。文献158中,作者提出了一种基于学习的二进制指数回退算法,用以解决无线局域网内的冲突问题。不同于传统回退算法中随机选择后退时长,新算法会根据上一次成功发送选取固定值,进而可以有效减少冲突的发生频率,提升整体性能。文献21中,作者引入隐马尔可夫模型(hidden Markov model,HMM),并通过对频谱参数的学习,解决了次级用户接入空闲频谱资源的冲突问题。相比较次级用户而言,初
114、级用户的突发传输会导致频谱检测误差大大增加,并严重影响次级用户随机接入的成功率。作者通过对初级用户的特征建立 HMM,设计了一种信道学习算法,可以有效的识别出初级用户的传输模式。3.4 基于 AI 的链路调度 文献150研究了在密集部署的无线网络场景下无线调度问题,利用空间深度学习,对具有全频率复用的多个干扰链路提出了最佳调度的解决方案。针对此问题的经典优化方法通常有以下模式:首先估算所有干扰信道强度,然后使用该模型找到最佳解决方案。然而,传统的调度方法是计算密集的,尤其是在密集网络中,信道估计成本很高,并且链路调度的优化通常是非凸问题。研究人员采用一种深度空间学习方法来解决调度问题。完全绕过
115、信道估计阶段,并使用深度神经网络仅基于网络中发送器和接收器的地理位置来产生接近最佳的调度。使用神经网络架构将受干扰的节点和相邻节点的地理空间卷积作为多个反馈阶段的输入,以学习最佳解决方案。用地理位置信息(GLI)替代每个发射机和接收机的信道状态信息作为神经网络的输入,将问题的复杂度由变成。将一个网格区域的连续变量离散量化发射机和接收机的网格密度作为输入。其相比传统方法的优势在于通过使用地理空间卷积来估计每个链路周围的干扰邻居的密度以及用于逐步调整链路活动模式的反馈结构。深52 度神经网络实际上可以学习网络干扰拓扑并仅根据地理空间信息就可以执行调度到接近最佳状态,从而省去了昂贵的信道估计阶段。3
116、.5 基于智能体(smart agent)的无线资源调度 AI/ML 方法中的 RL 算法可以通过智能体与环境交互,动态调整自身的决策策略,获得最优的期望收益。它无需对系统进行显式建模,因此非常适合用于解决复杂通信系统中的参数选择、跨模块联合优化、跨层资源分配和决策类任务。现有工作中体现的 RL 对空口的影响主要体现在将其用于解决功控、调度、资源分配等决策类任务时,空口参数的优化配置。例如,文献47使用 DRL 方法解决车辆到基础措施(vehicle to infrastructure,V2I)场景下设备调度问题,通过控制设备开启和休眠,使得系统在满足 QoS 需求的情况下延长路边单元的电池使
117、用时间。文献48使用 DRL 方法实现 IoT 设备的调度,在不影响正常语音业务的情况下,最大化 IoT 业务的吞吐。文献49联合优化了调度和内容缓存策略。文献50则在给定功率限制下优化用户的上行调度流程,最大化系统的上行吞吐。文献55的作者尝试使用 DRL 方法解决蜂窝网络用户调度问题。考虑了两种流量模型,其中全缓存(full-buffer)流量模型下,可以通过优化算法得到问题的最优解;而非全缓存(non-full-buffer)流量模型下,最优解则无法显式获得。图图3-3 基基于于DRL的的full-buffer场场景景用用户户调调度度 对于 full-buffer 流量模型,文献55基于
118、 DRL 框架,提出了如图 3-3 所示的三种学习方法。由于比例公平(Proportional Fair,PF)调度策略在该场景下为最优方案,因此将 PF 调度策略作为专家知识训练智能,可以达到最优性能且收敛速度较快。当专家知识难以获取时,则可以采用对偶学习的方法,使用两个智能体互相学习互相促进的方式,防止算法像直接学习一样落入局部最优。对于 non-full-buffer 流量模型,无法获得显式的最优算法。文献56使用 DRL 方法,结合 n 步回退、熵正则化、动作掩码(masking)等训练方法,可以得到优于现有算法的性能:在不损失公平性的情况下,53 实现吞吐的提升和丢包率的下降。作者还
119、将在单 RBG(resource block group)条件下训练的智能体用于多 RBG 场景的调度推理,同样可以获得类似的优于传统算法的性能,这说明了这种方法的泛化性能有一定保证。基于智能体解决无线资源调度问题时的另一个挑战是通信系统的高度动态性,参与调度的用户数随着时间变化,这就要求智能体可以处理不同用户数的调度问题而无需频繁重新训练。为此,文献230提出了一种可扩展的神经网络设计方法,用于基于策略的 advantage actor-critic(A2C)架构,解决高动态用户数可变场景下的无线资源管理问题。如图 3-4 所示,同一个策略网络被重复使用 K 次(K 为参与调度的用户数量),
120、用以处理用户设备的每一个状态;价值网络则只被使用一次,用以处理所有用户设备的平均状态。所有用户设备共享同一个策略网络。用户设备的数量值只影响策略网络的使用次数,这称为用户调度的置换不变性。结合离线训练,在线推理方法,该方案可以进一步加快智能体的部署流程。图图3-4 可可扩扩展展的的神神经经网网络络设设计计 图图3-5 深深度度强强化化学学习习算算法法性性能能 图 3-5 刻画了在单蜂窝、5 用户设备、单蜂窝、50 用户设备、3 蜂窝、每个蜂窝10 用户设备三种场景下可扩展神经网络的性能。相比于传统的 PF 调度算法,基于深度强化学习的调度算法可以在几乎不损失公平性的前提下达到更高的吞吐量和更低
121、的54 丢包率。相同的神经网络设计用于不同场景可以获得类似的性能增益,体现了基于强化学习方的资源调度的有效性和可扩展性。当考虑多个小区的联合资源分配问题时,则需要使用多智能体 RL(multi-agent RL,MARL)。根据多智能体的实现方式不同,可以将这些工作大致分为两类。第一类工作中,多个智能体采用各不相同的神经网络参数。这些智能体在同一个环境中进行训练,它们各自的决策需要考虑其他智能体可能的动作情况,同时会对其他智能体产生影响。例如文献51基于 MARL 中常用的单 critic 网络+多 actor 网络结构解决异构网络中的功控问题。中心式的训练过程中,中心 critic 网络可以
122、获得全局信道,多个 actor 被部署在多个网络 AP 上,各自根据 critic 的指导和本地信息进行训练。文献52中,各用户基于深度 Q-learning 网络(deep Q-learning network,DQN)训练自身的智能体,完成 AP 关联和资源分配。另一类工作中,多个智能体使用相同的神经网络结构和参数。不同智能体从本地局部环境中收集的经验增加了神经网络的训练样本,帮助网络更快收敛。训练好的神经网络也可以直接下发给新入网的智能体,解决了扩展性问题。文献53使用这种方法解决了物与物(device-to-device,D2D)场景中的功率分配问题。文献54则用于解决蜂窝网络多小区联
123、合调度和功控问题,建模过程中,考虑系统状态收集和交互的时延,即智能体智能通过一些过期的信息进行决策。利用智能体/多智能体技术,完成参数配置、跨模块优化、资源分配等任务一直是研究的热点和方向。3.6 基于 AI 的网络切片无线资源分配 基于 AI 的网络切片无线资源分配大规模机器类型通信(mMTC)被认为是未来数字世界的革命性技术之一,可在当前的 5G 和即将到来的超越 5G(B5G)网络中实现广泛的应用,包括工业自动化、智能交通、智能电网等。随着众多具有多样化 QoS需求的 MTCD 接入网络,传统的面向 HTC 的蜂窝网络面临着巨大的挑战。第一个关键挑战源于不同 mMTC 应用程序的差异化
124、QoS 要求。在多应用共存的 mMTC 网络中,不同应用在时延、可靠性、移动性、能耗等方面对服务质量 QoS的需求是不同的。此外,支持这些应用程序的底层协议可能非常不同,例如设备的激活周期、帧大小、前导码格式等。然而,在传统的网络架构下,物理设备与网络中的业务高度耦合,无法为不同的 mMTC 应用提供差异化的服务。mMTC 的另一个主要挑战是来自这些 MTCD 的大量访问请求。在 RA 过程中涉及的资源中,有两种资55 源会限制大量MTCD接入请求时系统的性能:即用于识别发起 RA 请求的 MTCD 的前导码资源和为物理下行链路控制信道(PDCCH)保留的 RB 资源。中国电信提出“6G 多维
125、信息感知的无线 AI 技术”,通过场景与业务的深度感知,进行网络业务协同优化,实现深度感知的智能无线资源管理。中国电信联合电子科技大学设计基于网络切片的 mMTC 智能接入控制与资源分配机制和控制信道资源分配机制。具体而言为了克服上述 mMTC 随机接入上的述挑战,我们将网络切片引入 mMTC,并提出了一个支持网络切片的 RA 框架。借助网络软件的可编程性、灵活性和模块化等特点,可以为不同的 mMTC 应用提供细粒度差异化的服务。此外,通过引入网络切片,可以将具有海量 MTCD 的单个庞大的物理网络切分为多个独立的轻量级网络切片,每个切片内只接入原 MTCD 集合的一个子集,从而减少了冲突域,
126、使得每个网络切片内的冲突概率大大降低,从而可以有效地减少随机接入时延。然而,虽然每个网络切片内的冲突域减小了,但可用前导码和 PDCCH RB 资源也减少了,因为网络切片的资源是从物理网络中分割出来的。因此,与禁用网络切片的解决方案相比,冲突概率和访问延迟的降低并不显著。为此,我们提出了一种支持网络切片的 mMTC 随机接入框架,该框架结合了切片前导码(sliced Preambles,sPreambles)的概念和基于 Actor-Critic 的 RB 资源共享方案。一方面,sPreamble 的引入显着扩展了每个网络切片中可用的前导资源,从而有效地降低了冲突概率和接入延迟。另一方面,我们
127、提出的基于 Actor-Critic 的 RB 资源共享方案可以实现网络切片之间 PDCCH 资源的智能复用,从而有效地提高它们的接入能力。如图 3-9 所示,与传统的贪心算法(每条业务流选择满足约束条件的最大路径带宽)、固定分配算法(业务流保持初始状态不变,即不采取 重新配置)和随机分配算法(随机分配路径带宽以及节点 VNF 实例处理资源)相比,基于 AC 的重配置算法可以有效地提升用户的效用增益约为 30%,同时可以有效地提升资源的利用率约 40%。图图3-6 面面向向业业务务流流的的网网络络切切片片资资源源分分配配仿仿真真结结果果 56 3.7 小结 初步研究表明,AI 技术对复杂多变的
128、网络环境和网络结构具有很好的适应性,并且能从已有数据和先验信息中提取出未知特征以推演出高效的资源调度、功率分配与干扰协调等方案。目前,AI 技术在频谱资源分配、无线通信干扰协调、功率分配、信道分配、接入控制、链路调度、智能体资源调度、切片资源管理等方面已有较为成熟的研究成果,例如相比基于人工设计的传统方法,基于强化学习的无线资源管理在计算成本与服务质量上的表现均有提升。因此,应用先进的 Al 技术在解决异构无线资源调度、功率分配、线路控制、干扰协调等问题逐渐发展为无线网络技术研究中一类新兴的技术手段。尤其是基于强化学习的无线资源调度与功率分配方面具有很大的研究空间与发展潜力,且有望在不久的将来
129、替代基于人工设计的传统方法进行无线资源管理,协助无线网络智能地学习和自适应地决策。57 第四章 基于AI的网络上层技术 AI 在无线通信网络的应用层和网络层主要有两方面的应用。首先,它们可以用于预测、推理和大数据分析。在此应用领域,AI 功能与无线网络从其用户、环境和网络设备生成的数据集学习的能力有关1。例如,AI 可以用来分析和预测无线用户的可用性状态和内容请求,从而使基站能够提前确定用户的关联内容并进行缓存,从而减少数据流量负载。在这里,与用户相关的行为模式(如移动方式和内容请求)将显著影响缓存哪些内容、网络中的哪个节点以及在什么时间缓存哪些内容。第二,AI 在无线网
130、络中的另一个关键应用是通过在网络边缘及其各网元实体(如基站和终端用户设备)上内嵌 AI 功能来实现自组织网络操作。这种边缘智能是资源管理、用户关联和数据卸载的自组织解决方案的关键促成因素。在这种情况下,AI 可以学习环境,并随着环境的变化采用不同的解决方案,使得设备自主决策成为可能,从而实现网络智能化。4.1 基于 AI 的无线网络架构 未来网络演进的目标是通过人工智能的引入实现网络的自主决策和自主演进,达到无人自治的完全智能化网络。对现有 5G 架构,应尽量将影响降低至最小化,尽量不引入新增接口,并且能够实现和当前 RAN 的兼容和共存。此外,还需在研究中考虑到人工智能相关数据在接口上的安全
131、性要求,保证人工智能相关数据传输的健壮性和可靠性。基于 6G 网络的无线人工智能架构在设计时,不仅需要考虑后向兼容,即兼容基于 5G 网络的无线人工智能架构,还需要适当地考虑前向兼容,即在包括 6G在内的未来网络中运行人工智能时,避免因未来网络演进而产生各层网元设备无法实现相关功能而进行大量改动。具体来说,未来的无线人工智能架构至少需要满足如下需求:1.大量不同类型数据的统一化获取、预处理、管理、共享、存储以及安全传输。2.增强接口功能,能够实现节点间人工智能功能的开启与关闭、人工智能模型获取和测量结果报告。3.能够根据应用场景和用例需求选择不同的人工智能训练模型,包括监督学习、非监督学习、强
132、化学习等,并可以确定对应的输入与输出。58 4.支持不同应用的统一化架构,包括节能、负载平衡、资源分配、移动性管理和覆盖范围优化等。5.人工智能功能边缘化,从边缘获取数据后可以利用边缘资源进行实时化决策制定,提高系统能效并减少数据传输带宽需求,满足变化快、实时性较高的业务控制需求。根据上述需求,未来的无线 AI 架构的实例图之一如图 4-1 所示:图图4-1 无无线线AI架架构构 具体而言,接入节点对算力需求比较低,需要处理的数据量较小,重点实现网元级人工智能策略的执行,提供实时性 AI 处理能力。同时,需支持接入节点之间的人工智能互操作性,实现分布式的 AI/ML 算法。边缘节点实现轻量级
133、AI,运行轻量级的机器学习模型,具有一定的计算和决策的能力,以满足敏捷连接、实时业务、安全与隐私保护等方面的需求。RAN 侧的人工智能功能从层次上来说分为:通用 AI 处理和特定用例 AI 处理。通用 AI 处理包括根据特定用例进行的模型选取和调用、底层软硬件资源的统一分配和算力编排等。特定用例 AI 处理包括:针对特定用例(移动轨迹预测、Massive MIMO 增强等)进行数据规范化处理和智能分类等。4.2 基于 AI 的传输层拥塞控制技术 传输层拥塞控制技术作为网络领域最重要的技术之一,对于提升网络效率和降低时延起着至关重要的作用。最早拥塞控制是从传输控制协议(transmission
134、control protocol,TCP)开始的,TCP Tahoe 于 1988 年由 Jacobson 提出,是最经典的传输层拥塞控制算法,引入了慢启动和拥塞避免,快速重传等机制。后来 TCP Reno 引入了快速恢复机制。TCP new Reno 维护了快速恢复状态,避免了因为连续丢包导致的连续砍59 窗口的问题。TCP SACK 加入了选择确认(selective ACK,SACK)与重传机制,避免了累计确认(cumulative ACK)与重传机制带来的低效的回退问题。后来数据中心的兴起,由于数据中心属于单一自治域的同构网络环境,有相对固定的拓扑和相同的网络配置,比如显式拥塞通告(e
135、xplicit congestion notification,ECN),于是基于数据中心的拥塞控制技术研究成为热点,比如最有代表性的 DCQCN160算法,实现了交换机端的 ECN 标记和主机端的速率控制。但是仍然存在以下问题:1)已有的方法只考虑了有限的输入和数学建模,比如 ECN,丢包,往返时延(round-trip time,RTT),实际网络非常复杂,需要考虑更多因素(比如动态业务模型)和复杂建模。2)由于获取的网络信息有限,导致收敛速度慢,容易导致网络排队时延增大。3)由于算法的状态多和优化的参数众多且复杂,使得算法调优非常复杂。为了解决存在的问题,由于 AI/ML 技术可以解决多
136、维度复杂场景下的建模,开始引入 AI/ML 到传输层拥塞控制算法的研究中。主要的研究方法包括基于离线训练的有监督学习、深度强化学习、在线训练的学习。基于 AI 的传输层拥塞控制技术主要有以下方向:离线训练的有监督学习、深度强化学习、在线训练的学习。每种算法主要的区别在于不同的目标函数的选择,不同的输入输出和 AI/ML 模型的选择。下表列出了主要 AI 算法的比较161:表4-1 传输层拥塞控制主要AI算法 Remy 和 Indigo 算法是典型的基于离线训练的有监督算法,把业务模型和对网络资源消耗作为先验信息,在离线训练阶段,将吞吐率和时延最优作为目标函数,将最优的拥塞窗口作为训练模型的输出
137、。基于离线学习的算法好处在于收敛速度快,但由于需要获取较多的离线数据用于模型的训练,完整的数据集成为了在实际应用过程中的一个瓶颈。从下图的实验结果表明146,基于 AI 的拥塞控制方法在不同的带宽,时延,队列大小,丢包率下,相比传统 TCP CUBIC 而言,性能都有了不错的提升。60 图图4-2 实实验验结结果果 4.3 基于 AI 的业务速率控制 图图4-3 基基于于AI的的业业务务层层速速率率控控制制 图图4-4 网网络络测测试试结结果果 类似的思路还可以用作业务层的速率控制,比如Pensive144,视频码率的动态选择。如图4-3所示,带宽、速率、终端缓存作为码率选择模型的输入,输出为
138、动态码率选择。然后与实际的视频体验质量(quality of experience,QoE)运行环境结合,将QoE(考虑视频码率、视频卡顿率和码率切换)作为收益反馈到AI模型中,不断完善码率选择模型。通过实际网络的测试结果如图4-4所示,结果表明从视频码率,卡顿率和视频切换顺畅度各维度进行评估,都表现出了良好性能。61 4.4 基于 AI 的需求预测与缓存技术 随着智能终端设备的快速发展与普及,诸如短视频等新型移动多媒体业务不断地涌现,人们对于无线数据服务的需求呈现出爆炸式的增长165。然而,由于频谱的稀缺性,现有的无线网络难以支撑移动多媒体业务的持续增长,需要我们提出新的解决方案。得益于大数
139、据技术的高速发展,广义认知网络可以将认知对象从电磁环境拓展到用户需求。同时,也得益于存储技术在过去二十年中的长足进步,目前的网络边缘设备均配置了一定容量的存储介质。因此,可以将热门文件与用户未来可能请求的文件主动缓存至移动网络边缘的存储介质中。在用户发起真实请求后,可以直接从网络边缘的存储介质或本地缓存区中读取,从而降低用户的请求时延和移动网络的峰值功率。要想尽可能地提高缓存系统的能效与谱效,需要解决的问题包括:如何提高文件热度预测与用户请求预测的准确性?如何基于预测的文件热度和用户请求在有限的缓存区内制定缓存策略?如何基于缓存策略制定相应的推送与服务策略?国内外众多学者围绕上述问题以 AI
140、为手段开展大量的研究,下面简要介绍。a)蜂蜂窝窝网网络络内内容容热热度度预预测测和和缓缓存存策策略略设设计计在文献166中,康奈尔大学的 Krishnamurthy 教授提出了一种适应性缓存方案以解决蜂窝网络中的文件缓存问题,首先通过机器学习方法,基于用户行为和文件特征等估计内容热度,再结合蜂窝网络相关参数,通过解混合整数线性规划问题得到具体的缓存策略,该方案得到的缓存策略可以根据网络参数如网络拓扑、通信链路、路由策略的变化而进行调整,相比于单一固定的缓存策略,该方案可以更好地适应复杂的网络环境变化。b)雾雾无无线线接接入入网网络络用用户户偏偏好好预预测测和和缓缓存存策策略略设设计计在文献16
141、7中,东南大学尤肖虎教授团队研究了雾无线接入网络中的缓存问题,文中考虑了内容流行度在时间和空间上的变化,使用在线梯度下降(online gradient descent,OGD)方法和 FTRL-Proximal 方法提出了对用户偏好的低复杂度在线学习算法,更准确高效地预测用户需求的变化,进一步以用户个体的偏好为基础,预测给定空间范围或时间范围内的内容流行度,从而得到有效的缓存策略。c)D2D 通通信信中中用用户户偏偏好好分分析析在文献169中,悉尼大学 Branka Vucetic 教授考虑基于个人的内容请求概率,而非整体的内容请求概率来设计缓存策略,以此更准确地反应用户个人的偏好而非整体的
142、内容热度,从而实现更准确高效的缓存策略。作者引入了评分矩阵的概念,并对矩阵进行分解得到内容特征与用户偏好的对应关系,通过贝叶斯学习方法预测用户个人62 对不同特征的偏好程度,并据此设计缓存策略。该方案还可扩展到 D2D 通信中以进一步降低延时,提高预测准确度。d)协协同同缓缓存存的的最最优优策策略略在文献171中,伦敦玛丽皇后大学的 Yue Chen 教授研究了协同缓存中内容放置的优化问题,其目的是最大化移动用户的总平均意见得分(MOS)。首先,作者利用递归神经网络(RNN)来预测用户的移动性和内容的热度。然后,作者提出了一种基于学习自动机的 Q-learning 协同缓存算法,该算法通过调用
143、学习自动机进行 Q-learning来获得在随机和平稳环境下的最优决策。仿真结果显示协同缓存优于非协同缓存和随机缓存。e)移移动动边边缘缘网网络络文文件件热热度度预预测测与与缓缓存存设设计计在文献172中,德克萨斯 A&M 大学的 Ning Zhang 助理教授使用循环神经网络模型对内容热度进行预测,并基于热度的预测更新缓存策略,通过缓存降低核心网的拥挤程度和降低用户服务延时。循环神经网络模型可以有效捕捉用户请求在时间上存在的内在关联性,并依据用户请求在时间上的相关性更准确地预测用户未来的请求。仿真结果表明该方案会随着更深的神经网络层数以及更长的时间步长而提升性能。f)内内容容推推送送技技术术
144、利用无线传输的多播特性将内容推送到多个用户设备端进行主动缓存,能够有效缓解中心网络负载,提升用户体验。有限的无线传输资源和缓存资源导致内容推送决策之间相互耦合。有限的无线传输资源下,系统每个时隙内只能推送有限的内容到特定的用户设备端。过早的内容推送将带来用户设备端额外的缓存代价,而过迟的内容推送将面临错过用户请求的风险。亟需利用有限的网络资源,实现最大化数据卸载量和最小化缓存代价的平衡。文献168提出了一种基于结构化卷积神经网络的内容推送策略。g)基基于于相相关关性性和和因因果果性性的的业业务务预预测测技技术术文献170提出利用无线业务的两个本质属性,相关特性和因果特性,以准确预测无线业务。1
145、)无线业务相关特性:无线业务具有空时相关特性,即相同小区不同时间段以及不同小区业务之间的相互关系。人们一般使用相关系数来衡量两个变量之间的相互关系,其取值范围在-1,1之间,其中 1 代表完全正相关,而-1 代表完全负相关,而 0 意味着没有相关性。根据实测无线网络业务的相关性分析可知,无线网络业务在同一地点不同日期的同一时段的业务量呈现很强的相关性(时间相关性),相邻小区同一时段的业务量呈现一定的相关性(空间相关性),因此有效利用无线业务的时空相关性有助于预测无线业务的规律项,提高预测精度。2)无线业务因果特性:无线业务因63 果特性揭示了网络业务变化的原因。根据格兰杰因果检测方法可知,如果
146、一个平稳时间序列 X 的历史值有助于提高另一个平稳时间序列 Y 的预测值,则 X 是 Y 的格兰杰因果,也称预测性因果。例如,大型活动、上课、航班起飞/降落等都是无线网络业务变化的原因,具备一定的因果性。探索和利用无线业务的因果性将有助于预测无线业务的变化量,提高预测精度。4.5 基于 AI 的无线分布式计算 随着移动互联网的飞速发展,各类互联网应用产生的数据量呈爆炸式增长。面对如此巨大的数据量,传统的依托于数据中心进行集中数据分析与处理这种模式逐渐难以满足业务需求。在传统模式中,网络的边缘节点只负责数据收集与用户交互行为,并将所有原始数据上传到数据中心进行处理,这将导致巨大的通信消耗例如带宽
147、占用和能量消耗等,此外,对原始数据的上传还可能导致用户的隐私泄露。目前移动设备的快速发展与普及使得网络的边缘节点具有较强的计算能力与储存能力,可以胜任针对本地的小规模数据量的分析与计算。因此,为了解决这些问题并且更高效地完成大规模数据的分析与处理,我们可以采用分布式计算的思想,借助移动边缘计算和人工智能算法,将庞大的计算任务分发给网络边缘节点完成,而后由中心服务器将各个节点的计算结果进行整合统一,从而形成全局的计算模型。因此,AI 在未来无线计算中的应用成为了一个重要的研究课题,而联邦学习(federated learning,FL)能够在无线计算任务中实现分布式训练与训练结果的集中整合,有望
148、有效地解决大规模数据处理的资源消耗与隐私保护问题。当前的研究主要包括如下方面:a)基基于于 AI 的的移移动动边边缘缘计计算算技技术术在边缘节点执行数据压缩可以有效地减少需要传输的数据量,大大缓解了网络负载。如何联合优化系统中的数据压缩和传输成为了一个亟待解决的问题。以往的研究工作解决的都是单时隙之间数据压缩和传输的耦合问题。然而在大数据背景下,考虑到数据压缩时间不可忽略,数据需要在压缩完成后的时隙传输,因此时隙间耦合使数据压缩和传输问题更为复杂。文献172在考虑传输资源和计算能力受限的情况下,提出了一个分布式的数据压缩和传输调度算法。为了描述实际等待的数据包数量,此研究建立了原始数据队列和压
149、缩数据队列之间的队列映射关系。以吞吐量最优为目标,其利用原始数据队列设计了基于李雅普诺夫优化的传输调度算法。为了解决数据传输决策与数据压缩决策解耦过程中产生的长期收益问题,利用深度 Q 网络估计每个节点对压缩方案的偏好,并提出一种最优的数据包替换算法。64 b)基基于于 MIMO 空空中中计计算算的的 ML 模模型型分分割割在传统 ML 模型分割任务中,通信往往被视为一个管道,只负责准确地传输神经网络计算过程中的一部分中间结果。由于在模型分割中,每组数据的前向计算、反向传播中间结果均需要进行传输,这需要大量的通信开销。在文献196中,作者提出可以通过使用空中计算(over-the-air co
150、mputation)技术的 MIMO 系统高效实现与无线通信高度耦合的模型分割学习系统。由于模拟信号在空中的叠加,基于 MIMO 系统的空中计算可以看作一个带噪的线性变换,其具体参数由信道参数本身决定。通过这一技术,可以利用 MIMO 系统同时发送多路模拟信号以代表多维数据,大大提高系统效率。由于神经网络本身具有良好的泛化能力和对噪声的容忍能力,噪声对这一系统的影响不如普通模拟系统中大。同时,通过调整预编码与合并矩阵,可以实现对空中计算所对应的线性变换的控制。由于神经网络中存在大量的线性操作,这一可控线性变换可以很容易地与神经网络耦合。c)联联邦邦学学习习中中的的调调度度策策略略最最小小化化损
151、损失失函函数数/最最大大化化模模型型精精度度:在文献25中,由于无线网络中的联邦学习需要通过无线连接来传输参数,所以会受到无线资源的限制,需要选择合适的用户子集、资源分配方式以及学习的策略。针对 OFDMA 传输,作者提出了一个存在误包的情况下的本地模型丢弃策略,和一个在延时、功率以及能量约束条件下的最小化损失函数的优化问题,并使用二分图匹配算法进行了求解,得到了用户选择和资源配置策略。实验结果表明作者提出的算法和基线方法相比,损失函数更小,预测精度更高。最最大大化化收收敛敛速速度度:在文献26中,同样由于无线资源的限制,需要选择合适的用户子集和资源分配方式。针对 OFDMA 传输,作者提出了
152、一个概率用户选择策略,对全局模型有较大影响的用户被选择的概率较高,且每个用户被选择的概率均大于 0 的。同时作者还提出利用神经网络来表示不同的用户本地模型之间的关系,并利用它来估计那些未被选择的用户的本地模型,以此利用更多的用户数据集信息。在给定用户子集的基础上,优化无线资源块的分配,最小化收敛时间。d)计计算算资资源源与与通通信信资资源源联联合合调调度度在文献195中,作者研究了在联邦学习中如何有效利用边缘节点有限的计算资源与通信资源达到最优的学习性能。模型聚合的频率是可以控制的,而非最优的聚合频率可能导致大量的资源浪费。作者从理论角度分析了基于梯度下降算法的联邦学习收敛界,并据此提出了一种
153、控制算法来动态控制模型聚合的频率,以在有限的资源预算下最小化损失函数。通过实际数据集仿真验证,该控制算法在多种不同情况下都能达到近乎最优的性能。65 在文献199中,作者研究了在无线通信网络中的联邦学习延时最小化的问题。在联邦学习中,本地计算时延与通信时延都取决于目标学习准确度,通过联合考虑这两方面的时延,作者建立了一个联合传输与计算优化问题以最小化联邦学习延时,并理论证明了延时是学习准确率的凸函数。而后,基于这一凸函数性质,作者提出一种二分查找算法得到最优的学习准确率。e)自自适适应应分分簇簇的的分分级级联联邦邦学学习习系系统统在大规模联邦学习系统中,各用户本地数据分布呈现较强的互异性。为避
154、免数据非独立同分布特性带来的负面影响,传统联邦学习系统要求各用户频繁上传本地训练结果到中心端基站执行全局模型融合。然而,广大 UE 的异构性致使频繁通信场景缺乏足够的可靠性;用户群体的巨大数量及模型规模的日益增长使得系统通信损耗急剧增加,进而导致涉及频繁通信的分布式架构在实际场景中缺乏实用性。文献198在分级联邦学习架构的基础上,提出了自适应分簇算法,对用户接入基站的选择以及通信资源的分配。在分簇方案的决策过程中,系统将综合考虑各用户的本地数据分布及其地理位置等信息,一方面通过促使各簇内的联合数据分布趋于独立同分布来进一步提高簇内局部模型融合的可靠性,另一方面通过对系统内可用通信资源的合理分配
155、来降低系统整体通信时延,从而寻求学习增益与通信增益的联合最大化。在构建的优化问题中,决策变量包括分簇策略及通信资源分配策略,通过联合优化二者来达到提升系统整体训练效率的目的。4.6 小结 相比于 AI 技术在物理层技术的研究,AI 在无线通信网络上层技术方面的研究较少,目前主要是集中在无线通信网络的应用层和网络层两个方面。初步的研究结果表明,AI 技术可以用于无线网络架构的设计、传输层拥塞控制、业务速率控制、网络/用户需求预测、以及无线分布式计算等领域。例如,AI 被应用于分析和预测无线用户的可用性状态和内容请求,从而使基站能够提前确定用户的关联内容并进行缓存,从而减少数据流量负载,并扩展到业
156、务层速率控制算法。此外,AI 还被用在学习环境,并随着环境的变化采用不同的解决方案,使得设备自主决策成为可能,从而实现网络智能化。66 第五章 基于AI的语义通信 近年来,随着人们对无线通信智能化需求的提升,各种基于无线通信技术的新兴智能业务(如工业互联网、车联网、远程医疗/手术、虚拟现实及全息投影技术等)层出不穷。这些新兴业务不再仅仅依靠高速率的数据传输,而逐渐对网络智能化和服务多样性等方面提出更多要求。在这一发展趋势的推动下,未来通信网络将开始逐步向高度自动化、智能化且可提供更贴近人类用户需求和体验的万物智联全新架构转变。语义通信是一种全新的通信架构,它通过将用户对信息的需求及语义融入通信
157、过程,将有望大幅度提高通信效率、改进用户的体验质量(QoE,quality of experience),并从根本上解决基于数据的传统通信协议中存在的跨系统、跨协议、跨网络、跨人机不兼容和难互通等问题,真正实现“万物透明智联”的宏伟愿景,即通信网络、计算和存储等软/硬件设备无缝融入人们的生活。人们无须携带手机或计算机等专属计算和通信设备也可以享受无处不在的计算、存储和通信等服务。5.1 基于 AI 的语义通信系统架构 语义通信模型的一般框架如图 5-1 所示,与传统通信系统相同,语义通信系统包含发送端、信道与接收端三个部分,主要区别在于语义通信系统所采用的编解码方式。语义通信系统的发送端包含语
158、义编码与信道编码部分,接收端包含信道解码与语义解码部分。在已有的工作中,文献204将深度学习与联合信源信道编码结合,通过语义信息的传递在接收端恢复文本信息。文献205将联合信源信道编码用于图像的传输中,并取得了较好的效果。文献206出了内容为语音的语义通信方式,验证了语义通信对语音的有效性。图图5-1 语语义义通通信信模模型型的的一一般般框框架架 5.2 基于 AI 的高效语音语义通信系统 现有针对图像、文字的语义提取主要使用全连接层获取低维度的隐变量,这种隐变量相较于信源编码具有更低维度从而可以传递更少的数据量。更进一步地,可以使用不同模态的数据作为可解释性表征去提取语义信息,204针对语音
159、传输任务的语义通信,67 使用语音中对应的文字信息作为语义信息提取目标,实现语音到文字之间的跨模态对齐,从而不仅降低了隐变量的维度,而且还大幅缩短了序列长度,从而进一步地去除通信中的冗余,实现更高效的语义通信系统。图图5-2 高高效效语语音音语语义义通通信信系系统统结结构构 图 5-2 为所提出的系统结构图。整体结构分为两个部分,分别为发射端和接收端,而接收端可以分为语义编码器、信道编码器和额外语音信息提取器,接收端可分为信道解码器、语义解码器、语义纠正器和语音重建器。其中系统输入的语音信号首先转换为对应的频谱信号,然后输入语义编码器,在语义编码器中使用卷积模块和双向 LSTM 模块获取中间隐
160、变量,该中间隐变量由软对齐模块和额外语音信息提取器分别转换为文字隐变量和额外语音信息。文字隐变量经由发送端的信道编码器、带噪信道和接收端的信道解码器得到带噪声的文字隐变量。在接收端使用基于束搜索的语义解码器,同时使用基于 LSTM 的语言模型辅助纠正信道噪声带来的语义错误,得到对应的准确文字信息。如果要获得重建的语音信号,我们将获得的文字信息和额外的语音信息输入一个非自回归的语音生成模型,并通过 HIFIGAN,获取与输入语音近似的重建语音信号,完成高效的语音传输。从图 5-3、图 5-4 可以看出,对于语音到文字传输,本系统在测试集的准确率远高于其他通信系统,尤其是在低信噪比区域,本系统不会
161、出现大幅度的性能下降,在词错误率和语义相似度上都保持了更稳定的表现。图图5-3 语语音音语语义义通通信信系系统统测测试试集集错错误误率率 图图5-4 语语音音语语义义通通信信系系统统语语义义相相似似度度 68 表5-1 高效语音语义通信系统对于传输一段音频信号所需要的序列长度 表5-2 高效语音语义通信系统对于传输一个隐变量所需要的通信量 表 5-1 和表 5-2 分别给出了本系统对于序列长度冗余的去除和平均通信量的对比,可以看出本系统通过软对齐和冗余消除,大大缩短了需要传输的序列长度,同时获取了最小的平均通信量。在和语音到语音传输系统的对比中,我们仅需要使用 0.2%的通信量就可以实现相近的
162、效果。5.3 基于 AI 的图像语义通信系统 深度学习在图片语义通信模型中得到广泛的应用,通过其良好的特征提取和学习能力,对图片包含的语义信息进行提取和通信。相较于数字通信通信模型,基于深度学习的图片通信模型不会遭遇“悬崖效应”204。基于联合信源信道编码的图片语义通信模型(joint source and channel coding,JSCC)204,已经用于具有非线性信号的多径衰落信道中的无线图像传输,该通信系统利用卷积神经网络联合设计和优化信号的编解码和通信过程。同时,在204中提出了一种基于深度学习的JSCC方案,用于在具有非线性信号的多径衰落信道上进行无线图像传输。所提出的编码器和
163、解码器使用卷积神经网络将源图像直接映射到基带进行正交频分复用(OFDM)传输。该模型基于机器学习方法不需要单独的源和信道编码,同时集成 OFDM 数据路径以应对多路径衰落信道。204提出一种多级别语义通信系统(MLSC-image),该通信系统由两部分组成如图 5-5 所示:(i)编码器,从输入图像中提取语义特征并将其编码为符号信号以实现无线信道传输;(ii)解码器,从接收到的信号中解码语义特征,以重构源图像。编码器由两部分组成:多级语义特征提取器和联合语义信道编码器。首先编码器的输入图像 I 由标准化层预处理,使得图像中的每个元素都在0,1范围内。然后通过多级语义特征提取69 器提取输入图像
164、不同层级的语义特征。联合语义信道编码器将这些语义特征编码为符号,并通过无线信道发送给接收器。解码器由两部分组成,联合语义信道解码器和图像重建模块。联合语义信道解码器能够有效缓解信道噪声对传输信号的影响,并恢复多级语义特征。图像重建模块融合不同层次的语义信息,进而重建目标图像。最后,反标准化层对重建结果进行像素映射(0-255)。图图5-5 基基于于多多级级特特征征的的图图像像通通信信系系统统 随着物联网设备的广泛部署,图片语义系统的高效性使其能够大规模部署在设备端。204提出一种在物联网设备上使用两个深度神经网络作为编解码器的联合传输和重识别(re-ID)方案,在低信噪比的情况下与部署在物联网
165、设备上的传统方案(JPEG 和基于压缩感知的方案)相比,所提出的系统能够实现具有更好的识别精度。在计算资源有限的边缘服务器上通过联合特征压缩和传输系统来处理图片,实现高效可靠的推理和识别任务204。该系统结合 JSCC 方案,同时考虑特征压缩和信道编码,并结合新型滤波器修剪策略减少神经网络冗余复杂性,该方案不仅提高了端到端的可靠性,而且降低了计算复杂度。5.4 基于 AI 的语义通信系统资源调度 语义通信是一种新型通信范式,不同于现有通信系统中不考虑任务语义的信源信道编解码,语义通信系统提取任务相关的语义信息进行编码传输,可以有效降低通信量,并且可以在窄带宽、高噪声的情况下进行通信。目前大部分
166、与语义通信相关的工作都集中在语义信息的提取,对其在资源分配相关的研究比较少。而有效的资源分配对通信系统性能的提升有着重要的影响,因此,关于语义通信系统的资源分配的研究很有必要。我们提出了一种语义通信场景下的下行资源分配算法。在该场景中,每个用户都有一个时延的约束和一个通信性能的约束。文献224提出一种联合语义压缩和资源分配算法,在满足用户时延和性能需求的情况下,最大化系统所能服务的用户数。仿真结果如图 5-6中所示,可以看出所提出的算法在相同功率的情况下,能够支持更多的用户数,其中,70 Greedy 代表将问题 3 用匈牙利算法求解,得到每个用户所需的功率,然后根据贪婪算法选择用户的结果,U
167、niform 表示功率平均分配,资源块随机配对。图图5-6 系系统统支支持持用用户户数数随随功功率率变变化化图图 为了探究自适应压缩方案与固定压缩方案的性能差距,我们将所提出的方案与固定压缩比的方案进行了比较,这些算法的压缩比是固定的,资源分配方案与所提出的算法一致。可以看出,固定压缩比方案的算法性能有所下降,这是因为固定压缩比有时候会传递更多冗余的信息,造成功率的损耗。而压缩比为 1/24 的算法性能明显下降,这是因为其压缩比过低,对于对性能要求比较高的用户,过低的压缩比无法满足其需求。5.5 小结 目前,基于 AI 的语义通信的研究刚刚起步,主要集中在语义通信系统框架、高效的语义通信系统(
168、语音语义系统、图像语义通信系统)、语义的资源调度等方面的研究。初步的结果表明,基于 AI 的语义通信系统具有一定的可行性,能够提取并恢复多级语义特征,实现初级的基于图像语义、语音语义的信息传输。但是大量的基础概念和基础问题亟须大量的研究和完善,例如如何量化语义信息,如何压缩语义信息,如何设计通用语义通信知识库与更新,如何实现高效的多模态信源语义编解码等方面。71 第六章 无线AI研究数据集 无线 AI 研究需要高质量的数据,如何共建共享无线 AI 研究数据集是无线 AI 研究向前推进需要迫切解决的问题。一种典型的无线 AI 研究数据集可以包括如下 5 个子数据集:1)信道数据集,包括对信道状态
169、的记录;2)环境数据集,包括对客观环境的描述;3)经验数据集,包括无线网络状态、决策和性能的记录;4)用户画像数据集,包括对用户属性、行为的描述;5)预训练模型数据集,包括预先训练好的可用于通信任务的神经网络模型及参数。其中,信道状态可以是信道估计得到的信道系数,也可以是CSI 测量信息等信道相关的信息。环境数据则可以包括用于描述客观传输环境的图像、点云数据等。用户画像可以包括用户使用的终端型号、位置等用户属性和行为信息。而预训练模型则可以是不同场景下的信道预训练模型、信道数据的分布模型或无线网络优化模型等可用于特定场景特定任务的预先训练的神经网络模型集合208209。6.1 无线 AI 研究
170、数据收集和利用 无线 AI 研究数据集可以通过仿真、实测或者两者结合的方式进行构建。仿真数据的获取灵活性更高,可以通过修改场景配置和通信参数的方式生成多种多样的数据样本。实测数据则更贴近算法的实际应用场景,能够为算法提供更加准备有效的评估。两者的结合可以通过互相校准的方式实现。仿真数据集的构建主要有两种方式。一种是利用 3GPP TR38.901210等标准提供的统计模型,在给定场景和通信参数下生成信道、信号强度等数据。统计模型生成的数据往往无法与具体的场景设置(如建筑物布局、BS/UE 位置等)一一对应,因此无法用于特定场景设置相关的具体任务。另一种是在给定场景设置下,通过 ray-trac
171、ing 方式生成数据211212213。这种方式得到的数据与其生成场景强相关,可用于研究具体环境对无线通信的影响。还可以在无线通信的过程中,实时的收集无线 AI 研究数据集中的各个子数据集数据,甚至通过预训练模型的训练和推理,这些数据可以用于辅助通信中的各个任务,让网络变得更加智能。图 6-1 展示了一个实时收集并利用各个子数据集的例子,通信中历史采集得到的信道数据可以预先训练好一个信道模型,这个信道模型学习了信道状态在时、频、空域的变化规律,根据实时信道状态的输入,可以输出信道的压缩表示。该信道表示数据再拼接环境数据、用户画像等信息,就可以足够充分的表达当前场景,输入下游用于具体任务的神经网
172、络模型,可以输出智能决策用于执行智能空口配置、资源管72 理调度及智能环境感知等任务。收集这些任务执行后的状态、决策和性能指标等可以得到经验数据集,经验数据集可反馈用于模型的持续在线训练过程。图图6-1 无无线线AI研研究究数数据据集集的的收收集集和和利利用用举举例例 6.2 无线 AI 研究数据集的共建共享 图图6-2 内内生生AI架架构构与与无无线线AI研研究究数数据据集集 图图6-3 RT仿仿真真信信道道数数据据(左左:BS/UE部部署署 右右:BS5和和UE7 RT仿仿真真结结果果)无线 AI 研究在数据集的建立上也面临很大的挑战。不同于互联网上随处可见的图像、语音、文本等数据,真实无
173、线传输环境下的数据采集往往需要昂贵的专用设备和大量的人力和时间。而采集到的数据也面对着诸如数据种类繁多,数据质量参差不齐,数73 据处理方法和数据格式多种多样,体量巨大等一系列问题。在此种情况下,讨论如何共建共享无线 AI 研究数据集,并发展一套与之匹配的系统性的评估理论和方法,是需要各研究单位协同参与并一起解决的关键问题。在内生 AI 网络中的相关建立和部署方法如图 6-2 所示,可以分为以下四个步骤:步步骤骤 1:建建立立多多场场景景仿仿真真信信道道数数据据集集。首先建立统一的大规模仿真信道数据集,用于 AI 算法的验证以及模型的预训练。仿真信道数据的产生可以采用射线追踪(Ray-trac
174、ing)方法,并在信道数据产生的同时记录反映通信场景的信息,例如环境中的建筑物布局、设备位置等。步步骤骤 2:引引入入实实采采数数据据和和仿仿真真链链路路与与系系统统。在少量实测场景中采集实际数据,验证在该场景下信道预训练模型的性能,并尝试在真实数据上进行模型迁移,提升当前场景下的模型性能。同时,研究实采数据的分布,校正仿真信道数据生成模型,提升仿真数据集的真实性。步步骤骤 3:单单站站真真实实系系统统部部署署。通过单站、小规模真实系统的部署,对预训练的模型和算法进行初步验证、调优,并把经验数据收集起来。步步骤骤 4:多多站站多多用用户户系系统统部部署署。将模型部署在多站多用户真实系统中进一步
175、验证模型的泛化能力以及多站多用户之间的联合学习、多智能体强化学习等算法。在示例中,相关数据集的建立过程如:1)通过在全球 40 多个大城市的公开地图上进行采样,可获得 10000+真实建筑物布局,每一个建筑物布局可以看作一个环境;然后在每个环境里随机撒点,可获得 5 个基站和 30 个终端的位置;2)利用射线追踪方法仿真基站和终端的所有 150 种组合,得到 150 个组合场景的数据。这样,我们可以得到了 150 万+的场景,每个场景包括环境信息(建筑物布局)、基站和终端的位置,以及仿真信道。其中,仿真信道包括了当前基站和终端链路的所有的射线信息,每条射线又包括出发角、到达角、时延以及不同频点
176、的频率响应等。如图 6-3 所示,在给定建筑布局场景中进行 BS 和 UE 撒点,其中 UE 的撒点位置为随机,BS 的撒点则要求在建筑附近的街道上,以保证一定的合理性。3)获得 BS 和 UE 之间的射线追踪仿真结果。如图6-3 中所示的 BS5 和 UE7 之间的射线情况,其中,颜色越深代表射线的路损越小。采用该方法获得的信道数据除了具有场景多样、贴近真实的特点,还可以提供和数据集配套的数据预处理代码,对频点、系统带宽、OFDM 参数、天线数、天线间隔等参数进行自定义配置,并输出与此参数对应的信道冲击响应。6.2.1 定位 以定位任务为例,由于多径信道受到通信设备周边的环境影响,理论上结合
177、环境信息,即使只有单站的信道,也可以实现具有一定精度的定位。定位实验的参数配置如表6-1 所示,数据集中的每份数据包含:时延角度域的信道冲击响应、当前的环境以及设74 备位置等信息。读取的数据按照 9:1 的比例分成训练集和测试集,训练时以信道冲击响应、环境、发射设备位置作为神经网络的输入,以接收设备位置作为神经网络的输出。表6-1 自定义参数配置 频点 带宽 载波数 接收天线数 发射天线数 天线间距 2.16GHz 5M 25 2/4 8/32 半波长 示例中的训练可采用卷积神经网络和全连接网络提取信道、环境和发射端位置的特征,并输出预测的接收端位置。用于定位的神经网络的从数据集预处理得到的
178、输入数据经过 DNN 或 CNN 后得到不同特征并拼接,再经过 DNN 推演,得到接收端的预测位置。在对比实验中,我们尝试了有环境信息和没有环境信息、以及 8T2R 和 32T4R 的天线数组合。从图 6-4 中可以看出,有环境信息的实验无论是训练集还是测试集,定位精度都要高于没有环境信息的实验。当天线数从 32T4R 降为 8T2R,由于角度分辨率降低,定位精度下降,但是有环境信息的实验训练集下降很少,测试集的定位精度下降也少于没有环境信息的实验。另外从上述实验结果中可以看出,环境信息的引入对于定位精度的提升有一定帮助。图图6-4 基基于于无无线线AI研研究究数数据据集集的的定定位位任任务务
179、训训练练结结果果 高质量的无线 AI 研究数据集中含有丰富的信道、环境、场景信息等,对于未来无线 AI 的研究有极其重要的基础价值。6.2.2 智能波束预测 空域波束预测是指利用已知部分的稀疏波束功率测量结果,预测出其它未知部分的波束功率,进而从中挑选出最优波束的过程。传统算法对未知部分的波束功率的预测不准确导致挑选的波束和最优波束之间有较大的功率差,而遍历所有未知波束的扫描开销是不能接受的。因此,探索利用 AI 方法进行空域波束预测并考虑两种方案:只基于稀疏波束测量结果的预测;基于稀疏测量结果和环境信息的预测。假设完整的波束集合包含 64 个窄波束,在波束扫描的第一阶段,先等间隔测量 M(以
180、 M=16,8 为例)个波束,再基于该75 稀疏测量结果,从完整的波束集合中挑选 K 个(以 K=1,3,5,7 为例)波束以供第二阶段波束扫描。第一阶段和第二阶段的扫描组合参数取值以M-K的形式表示。基线算法在稀疏测量结果中的最强波束附近选择 K 个候选波束,AI 方法则先预测完整波束集合的功率,再从中选出最强的 K 个候选波束。训练数据集包含 1000 个环境,测试数据集包含另外的 100 个环境。基站 64 天线、UE2 天线、带宽 30.72MHz、载波数 128 以及频点 28GHz。性能评价指标为波束预测准确率,其定义为:最优波束如果在 K 个波束中则预测正确,否则预测错误。波束扫
181、描开销的定义为:第一阶段和第二阶段扫描的波束数量之和与波束总量的比值。图图6-5 波波束束预预测测性性能能对对比比 从图 6-5 所示的对比结果中可以看到,在同样的扫描开销下,AI 方法的预测准确率要明显高于基线方法。特别是在 K 取值较小时,仅在稀疏测量波束附近进行搜索,难以找到最优波束。对比 AI 算法的两种方案,在引入环境信息后,波束预测的准确率进一步提升。对于两阶段的波束扫描,不同的扫描配置(M 和 K 取值)的扫描开销和预测准确率不同。波束扫描组合 8-3、8-5、8-7 的扫描开销都小于 16-1,同时具有更高的预测准确率,因此稀疏波束测量配置的不同组合具有一定的优化设计空间。6.
182、2.3 模型泛化与迁移 以波束预测模型为例讨论基于无线 AI 数据集训练得到的模型在不同无线场景下的泛化与迁移性能。在训练使用多场景训练数据,可以让预训练模型在不同场景下具有一定的泛化性。然而,泛化性的提升也可能导致预训练模型在某一特定场景下的性能不是最优的。在实际部署时,预训练模型可以在具体场景下进一步在线训练(微调)。相比于重新开始训练,微调预训练模型可以用很少的计算代价得到更准确的模型。图 6-6 展示了多环境预训练模型在迁移到密集撒点环境并进行微调后的性能,其中密集撒点环境中包含 1 个 BS 和 10000 个随机撒点的 UE。第一阶段波束测量个数 M=16个,第二阶段扫描波束个数
183、K 为1,2,3,5,7。可以看到,波束预测准确率随着微调训练76 的进行而不断提升,说明基于多环境数据的预训练模型虽然已经收敛,但通过基于特定场景的具体数据进行微调训练可以给性能带来进一步提升。图图6-6 波波束束预预测测模模型型迁迁移移性性能能 我们再讨论不同迁移方法的性能。如图 6-7 所示,首先考虑三种典型的模型训练和迁移方案:Case A:基于多场景数据的预训练模型先迁移到特定场景 1,再迁移到特定场景 2(特定场景间迁移);Case B:基于多场景数据的预训练模型直接迁移到特定场景2(多场景至特定场景迁移);Case C:利用场景 2 本地数据从零开始训练模型(无迁移)。图图6-7
184、 预预训训练练模模型型部部署署和和迁迁移移验验证证 图图6-8 三三种种模模型型迁迁移移策策略略的的波波束束预预测测准准确确率率对对比比 如图 6-8 所示,对比上述三种模型迁移策略可见,无迁移的 Case C 在同样的训练计算量下,准确率远低于两种迁移方法。同时,Case A 为代表的特定场景间的迁移,其模型准确率一直低于 Case B 为代表的多场景至特定场景的迁移。可见单个环境下少量特77 定场景数据的微调造成了模型在该数据分布下一定程度的过拟合,即使使用新数据训练,它的准确率也不如使用具有泛化性能的预训练模型进行迁移。6.3 无线 AI 伦理规范及隐私保护 随着无线通信网络的迅速发展,
185、未来无线网络的规模、接入量及复杂度将会呈指数增长。因此,无线通信网络一直在探寻将人工智能引入网络,为无线网络赋能的道路。然而,伴随着人工智能在各行各业的大规模应用,除了人工智能带来的巨大收益之外,也催生了人机关系的新变化和新挑战。随意滥用人工智能带来了一系列恶果,如深度伪造(deep fake),自动生成虚假新闻等。一些组织和机构已经开始重视应用人工智能过程中的正确态度,并对人工智能的行为规范展开了研究,总结出了人工智能的伦理规范。目前,对人工智能进行约束的首要目标是构建人工智能伦理规范及伦理体系,众多国际组织、政府机构、及公司等均发布了人工智能伦理相关文件。从发布主体分类,可大致分为三种文件
186、:国际组织文件、政府文件、产业界文件,包括宣言、原则、指南、白皮书等多种形式。截止目前,约有 74 份人工智能伦理相关文件已发布,虽然出发点不同,但最终落脚点均落在对人类有益、保护数据安全及隐私、可靠、可解释等特点上。由于无线通信网络属于基础设施,处于强监管领域,用于无线通信网络的人工智能需要满足严格的伦理规制和监管要求,保证其安全可靠,确保人工智能的应用受到合理约束,才能够在无线通信领域顺利应用,使人工智能真正助力无线通信系统的发展。我国从 2017 年便开始重视人工智能面临的伦理及隐私保护问题,国务院在 2017 年 4 月发布了新一代人工智能发展规划,明确指出要“制定促进人工智能发展的法
187、律法规和伦理规范”217。2019 年 6 月,国家新一代人工智能治理专业委员会发布了新一代人工智能治理原则发展负责任的人工智能,提出了人工智能治理的框架和行动指南,其中第四条提到“尊重隐私:人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为”218。2020 年 8 月,我国国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部等五部委联合发布了国家新一代人工智能标准体系建设指南,提到要“建立人工智能标准体系结构”,
188、其中一个重要方面就是建立伦理与安全隐私保护标准,包括“基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务,安全测试评估,产品和应用安全”等六个部分,贯穿整个人工智能标准体系219。由此可见,我国对于人工智能伦理规范建设的需求已经刻不容缓。世界范围内也对人工智能的伦理规范和隐私问题进行了广泛探讨,期望规范人工智能的行为。举例来说,2020 年 2 月,欧盟委员会发布了人工智能白皮书220,在人工智能白皮书中,欧盟提出要建立一个“受信任的人工智能环境”,要求确保隐私78 和个人数据在使用人工智能的产品和服务中受到合理保护,因为人工智能增加了跟踪和分析人们日常习惯的可能性。此外,通过分析
189、大量数据并识别数据之间的关联,人工智能还可以用于对个人的数据进行回溯和去匿名化处理,这对即使本身不包含个人数据的数据集,也带来了新的个人数据保护风险。斯坦福大学在 2019 年 3 月成立了以人为本人工智能研究院(HAI),旨在减少人工智能的危害,认为“把伦理研究纳入人工智能的研究和开发的基础中是当务之急。”当人工智能被应用于无线通信系统时,其应当遵守的伦理规范和确保的隐私保护原则应更为严格。无论是 5G 或者未来的 6G 无线通信系统,最终愿景是从人人互联、人物互联,到物物互联,再到人网物三者的结合,最终构建万物互联的智能世界。由于未来的 6G 无线网络将支持丰富的应用服务,因此会涉及到大量
190、的用户隐私数据,如终端硬件标识、用户的身份证(ID),以及用户的行为偏好等。同时,由于数据挖掘技术进步,使得隐私信息的提取方式变得更加强大。因此,人工智能应用于无线通信网络时,应遵守以下伦理守则:1)保护数据安全及隐私;2)鲁棒性;3)透明性;4)可解释性。由于无线通信系统的高度重要性,无论是无线通信系统内部或者垂直应用场景下的数据安全和隐私均应当得到充分的保护:1)传统意义上的无线通信网络用户隐私数据,如用户数据、位置、行踪、通信内容、通信行为、通联关系、账号等;2)垂直应用场景中的隐私数据,如智慧工厂、智慧海洋、智慧物联中的相关敏感信息等。这些隐私信息的敏感和需要保护的程度将更为严格;3)
191、未来无线通信网络中的隐私数据,此时无线通信网络接入的设备多样化,支撑多种业务,如无人驾驶,智慧城市,工业自动化,及超大规模物联网等。在此阶段,人工智能将会收集、存储、处理海量的数据,其数据安全和隐私保护要求将会上升到一个更高的高度。6.4 小结 总之,面向未来无线 AI 通信系统,数据集的建立上目前面临这很大的挑战。具体而言,真实无线传输环境下的数据采集往往需要昂贵的专用设备和大量的人力和时间。而采集到的数据也面对着诸如数据种类繁多,数据质量参差不齐,数据处理方法和数据格式多种多样,体量巨大等一系列问题。在此种情况下,讨论如何共建共享无线 AI 研究数据集,并发展一套与之匹配的系统性的评估理论
192、和方法,是需要各研究单位协同参与并一起解决的关键问题。另一方面,由于人工智能的应用伴随着大量的数据收集、存储、处理过程,数据安全和隐私保护是一个无法回避,且亟待解决的问题。无线通信系统作为基础设施,承载着海量数据传输的任务,数据安全和隐私保护应当受到高度重视,让安全,可靠,可信的人工智能系统助力无线通信系统发展,实现无线通信网络的高度智能化。79 第七章 研究总结及产业化前景分析与展望本报告结合物理层、链路层以及网络上层具体需求和问题,全面介绍无线智能网络架构、无线智能空口、无线AI算法、无线AI数据集、无线语义通信等基础理论和关键技术当前的主要研究进展。本章将总结全文内容,概述 AI 赋能的
193、无线技术的潜能和优势,分析其产业化前景、现有的技术成熟度及其对标准化和产业化应用的影响。7.1 AI 赋能无线技术的潜能及优势 无线 AI 将是未来 6G 中渗透性最强的核心技术之一,涉及空口、网络、协议和算法的各个层面,也将深度影响感知、通信、计算、控制等网络功能,其技术可行性和性能潜力已得到证实。本报告的研究工作初步形成了如下基本结论和重要共识:1)AI/ML 能很好地表征和重构未知无线信道环境、有效跟踪预测反馈信道状态、挖掘利用大状态空间内在统计特征,大幅度提升物理层信号处理算法的性能。2)AI/ML 能够智能挖掘利用无线网络时空频通信、感知和计算资源,有效协调干扰,实现多用户、多目标、
194、高维度、分布式、准全局优化调度决策。3)若干 AI/ML 架构能够很好地与无线网络拓扑、无线传输接入协议、无线资源约束、无线分布式数据特征相适配,从而有潜力建构新型无线智能网络架构;在此基础上进一步利用网络分布式算力和动态运力,自主适应无线网络分布式计算业务需求,实现网络高效资源利用、自主运行和智能服务。4)无线语义通信作为一种全新的智能通信架构,通过将用户对信息的需求和语义特征融入通信过程,有望显著提升通信效率、改进用户体验,解决基于比特的传统通信协议中存在的跨系统、跨协议、跨网络、跨人机不兼容和难互通等问题。5)无线数据隐藏结构特征复杂,跨时空分布式小样本问题突出,无线数据集的构建、访问、
195、训练、迁移及其隐私安全保障将显著影响无线 AI 系统的架构设计和算法部署。具体来说,无线 AI 可以实现多模块联合优化甚至端到端通信的整体优化;数据驱动的无线 AI 模型可有效地逼近与拟合任意复杂的输入输出关系,提取与处理隐含的特征;无线 AI(如强化学习)可在多种场景和情况下不断调整、演进、修复,基于无线AI 的系统设计思路能更好的兼容未来的多种新型场景;无线通信系统中智能化设备越来越多,数据收集和处理能力也有了质的提升;此外,网络设备可以通过各类参考信号以及终端设备的反馈信息,非常方便地获得海量的无线环境数据;最后,可以通过通用80 硬件实现多种功能的神经网络,并支持未来网络的平滑升级和替
196、换,降低网络部署和维护的成本。AI/ML 在物理层的应用已有大量的成功案例。本报告的第二章节讨论了 AI 在物理层的各个模块,包括无线环境建模与感知、信道估计预测及反馈、编译码、调制与波形技术等方面的现有研究成果。这些成果显示 AI 特别是深度学习由于其具有端到端优化的能力可以避免传统通信链路的模块化设计,同时由于其的非线性处理能力,带来了显著的性能提升。AI 特别是强化学习,能够通过与环境的交互,学习环境的特性,从而自适应地实现最优决策,已被广泛应用到无线链路层的资源分配与调度中。本报告的第三章节概述了 AI 在干扰链路调度、功率分配、信道分配、接入控制、频谱资源检测等方面的成功应用。这些成
197、果显示,AI 技术,特别是深度强化学习,对复杂多变的网络环境和网络结构具有很好的适应性,能够以极低的计算成本智能地处理复杂系统的最优控制问题。AI 在应用层和网络层的应用主要有两方面。一是用于预测、推理和大数据分析。在这一方面,本报告的第四章介绍了基于 AI 的拥堵控制技术、业务速率控制技术、需求预测与缓存技术等。二是通过在网络边缘及其各网元实体上内嵌 AI 功能来实现自组织网络操作。第四章也讨论了相关的无线分布式计算技术,包含移动边缘计算技术、AI/ML 模型分割技术、联邦学习等。这些边缘智能可以学习环境,并随着环境变化而改变策略,从而实现网络智能化。通过上述讨论可以发现,AI/ML 方法已
198、经被用于无线技术研究的多个方面,并且相较于传统算法获得显著的性能提升。AI 的一些技术与模型(如 CNN,RNN,DRL 等)与无线技术深度融合,尤其是与物理层/链路层空口技术的结合和后续发展值得重点关注。此外,如本报告的第五章节中所探讨的,如何获取和利用研究数据集是无线 AI 研究的关键和难点之一。7.2 AI 赋能无线技术的产品成熟度 目前手机终端的嵌入式神经网络处理器(Neural-network processor unit,NPU)的处理能力与日俱增。在 2018 年以前,手机终端尚无专门的 NPU 模块,从 2018 年开始,手机终端的 NPU 处理能力每年都提升数倍。按照这个速度
199、,2030 年手机终端的 NPU 处理能力将持续高速提升。表 7-1 列出了一些典型的复杂神经网络的复杂度,以及这些神经网络占据目前典型芯片的 NPU 1 秒计算能力的比例。通过将现有手机 NPU 的处理能力与经典的神经网络的复杂度进行比较,可发现目前手机 NPU 处理能力已经非常强大。神经网络的复杂度一般以 OP 为单位计算,即一次实数乘法或一次实数加法为一个 OP。以 GoogleNet 为例,81 它的复杂度为 2G OPs,但它只占据目前典型芯片的 NPU 1 秒计算能力的 1.3e-4(即 1秒可以计算 7500 次,或执行一次网络只需 0.13 毫秒)。表7-1 典型的复杂神经网络
200、的复杂度列表神经网络复杂度(OPs)神经网络占据目前典型芯片的 NPU 1 秒计算能力的比例Inception V2 4.1G 2.7e-4 Inception V3 12G 8.0e-4 CaffeNet 724M 4.8e-5 GoogleNet 2G 1.3e-4 MobileNet 1.15G 7.7e-5 无线 AI 中使用的神经网络一般是轻量级神经网络,复杂度不高。因此,在手机终端上执行基于神经网络的运算已成为现实。随着手机终端 NPU 处理能力的快速增长,在手机上支持更复杂的无线 AI 成为可能。7.3 AI 赋能无线技术的标准化和产业化影响 无线 AI 在感知、预测、定位、跟踪
201、、反馈、调度、优化、调控等方面的应用潜力巨大,初步形成了未来标准化和产业化的基础,部分技术已在 R17、R18 中得到初步研究和讨论。例如在数据获取和使用方面,无线 AI 中的数据获取和 AI 模型参数更新,可能需要通信标准定义相应的流程;基于终端和网络设备的部分功能实现,要从法律法规和隐私保护方面进行规范。3GPP 当前的标准讨论中,在核心网侧,增加了 NWDAF,用于进行数据收集和分析。并且在 RAN 工作组和 SA 工作组上分别设立了一个 SI(Study Item),分别对数据采集和 AI/ML 模型传输进行研究,并讨论下一步标准化的可能,相关的进展情况可以参考 3GPP TR 37.
202、817“Study on enhancement for data collection for NR and ENDC”和 TR22.874“Study on traffic characteristics and performance requirements for AI/ML model transfer”。从标准化讨论进展来看,目前 3GPP 5G NR Release 18 已在 RAN 1 开启 AI 增强无线通信空口标准化讨论,相关评估和讨论结果将在研究报告 TR 38.843中发布。Release 18 的 study item 通过对代表性用例(CSI 压缩,波束预测和定
203、位增强)的讨论和性能评估,研究包括无线通信网络中不同 AI 阶段定义、基站与终端的合作、AI 模型生命周期管理、标准化潜在影响等课题。而关于 AI/ML 模型传输(AMMT)的讨论则进入到第二阶段,进一步增强 AI 服务作为 3GPP 的关键应用场景。按目前的计划,R18 的讨论结果将在 R19 进行更多用例讨论和标准化,R19+可能会进行 3GPP 框架内AI 模型训练/交互、AI 物理层信号处理等研究。由于无线 AI 可以实现相关通信模块的联合优化,传统通信标准中所涉及的内部接口将被简化,相关的信令过程也会有一定的改变,信令、参考信号的开销也将会降低。同时,不同阶段的无线 AI 对标准化和
204、产业82 化的影响不同。在初始阶段,无线 AI 将会以辅助工具或优化方案来提升现有无线通信系统的性能,其标准化影响相对较小。随着无线 AI 技术的成熟和无线通信系统对 AI的开放性和支持度提高,多个功能模块会逐渐被性能更好的无线 AI 模块所替代,其标准化影响将会更大。7.4 AI 赋能无线技术未来研究工作展望 当前在学术界,通信领域无线AI相关研究论文和 workshop研讨会的占比持续攀升;在工业界,主要的 6G 区域组织,如 欧洲 Hexa-X、北美 Next G、中国 IMT-2030 6G 推进组等,都将 AI 作为未来 6G 核心的使能技术和应用场景。同样我们也看到无线 AI 方向
205、上的研究后续在理论,架构与技术研究和实现落地等三个层面也面临着一系列挑战,比如在基础理论层面,有一些关键的科学问题需要攻克,1)如何通过理论指导找到适合无线通信系统的 AI 模型训练和部署方法,在通信、计算与存储的开销与性能中寻找最优;2)如何科学地评价无线分布式学习算法的性能与收敛性,从理论上刻画无线 AI模型学习能力的度量(如模型的容量),并建立成体系的方法与理论,评估无线 AI 算法模型的收敛性、学习速率和训练代价,以及模型推演的性能极限和可靠性等问题。在系统架构与技术方案研究层面,也面临着诸如 1)空口智能化与极致性能的最优化技术研究问题;2)如何找到通信协议设计与实现的新思路与新方法
206、;3)如何找到解决系统中广泛存在的通信,计算与存储等资源开销的最优化利用的技术方案问题;4)如何真正实现网络智能化自治的架构设计等问题。在最终的实现落地层面,也面临着如何解决 1)AI 运算所带来的高能耗与芯片能力局限问题,2)如何在无线动态环境下导致的学习与训练方面的通信与计算资源开销问题以及 3)在面对网络中大量存在的异构模型时如何找到通用的训练方法问题等挑战。下一步的研究工作宜深入探索无线智能通信系统在数据和算力需求、AI 通信计算综合效能方面的极限理论,重点推进无线智能网络架构、无线智能空口、无线 AI 算法、无线 AI 数据集、无线语义通信等方面的标准化,着重解决如下核心难点:适用于
207、无线的通用 AI 架构、数据和算力约束的高效无线 AI 算法,支撑 AI 算法高效部署的无线协议,以及无线 AI 性能(界限)的精准分析预测等等。83 参考文献1 Kermoal,Jean-Philippe,et al.A stochastic MIMO radio channel model withexperimental validation.IEEE Journal on selected areas in Communications 20.6(2002):1211-1226.2 Hur,Sooyoung,et al.Proposal on millimeter-wave chann
208、el modeling for 5G cellularsystem.IEEE Journal of Selected Topics in Signal Processing 10.3(2016):454-469.3 Sternad,Mikael,and Daniel Aronsson.Channel estimation and prediction for adaptiveOFDM downlinks vehicular applications.2003 IEEE 58th Vehicular Technology Conference.VTC 2003-Fall(IEEE Cat.No.
209、03CH37484).Vol.2.IEEE,2003.4 Q.Bai,J.Wang,Y.Zhang and J.Song,Deep Learning-Based Channel EstimationAlgorithm Over Time Selective Fading Channels,in IEEE Transactions on Cognitive Communications and Networking,vol.6,no.1,pp.125-134,March 2020.5 Z.Xu and J.Sun,“Model-Driven Deep-Learning,”National Sci
210、.Rev.,vol.5,no.1,2018,pp.2224.6 H.T.He,S.Jin,C.-K.Wen,F.Gao,G.Y.Li,and Z.Xu,“Model-driven deep learning forphysical layer communications”,IEEE Wireless Communications,vol.26,no.5,pp.77-83,Oct.2019.7 H.T.He,M.Zhang,S.Jin,C.-K.Wen and G.Y.Li,“Model-driven deep learning formassive MU-MIMO with finite-a
211、lphabet precoding,”IEEE Commun.Lett.,vol.24,no.10,pp.22162220,2020.8 Y.He,H.He,C.-K.Wen,and S.Jin,“Model-driven deep learning for massive multiuserMIMO constant envelope precoding,”IEEE Wireless Commun.Lett,vol.9,no.11,pp.1835-1839,Nov.2020.9 W.Jiang and H.D.Schotten,“Recurrent neural network-basedf
212、requency-domain channelprediction for wideband communications,”inProc.IEEE Veh.Technol.Conf.(VTC),Kuala Lumpur,Malaysia,Apr.2019,pp.16.10 T.Ding and A.Hirose,“Fading channel prediction based on com-bination ofcomplex-valued neural networks and chirpZ-transform,”IEEE Trans.Neural Netw.Learn.Syst.,vol
213、.25,no.9,pp.16861695,Sep.2014.11 W.Jiang and H.D.Schotten,“Multi-antenna fading channel prediction empowered byartificial intelligence,”inProc.IEEE Veh.Technol.Conf.(VTC),Chicago,IL,USA,Aug.2018,pp.16.12 Y.Sui,W.Yu,and Q.Luo,“Jointly optimized extreme learning machine for short-termprediction of fad
214、ing channel,”IEEE Access,vol.6,pp.4902949039,2018.13J.Yuan,H.Q.Ngo,and M.Matthaiou,“Machine learning-based chan-nel estimationin massive MIMO with channel aging,”inProc.IEEE20th Int.Workshop Signal Process.Adv.Wireless Commun.(SPAWC),Cannes,France,Jul.2019,pp.15.14 M.Mehrabi,M.Mohammadkarimi,M.Ardak
215、ani,and Y.Jing,“Decision directedchannel estimation based on deep neural networkk-step predictor for MIMOcommunications in 5G,”IEEE J.Sel.AreasCommun.,vol.37,no.11,pp.24432456,Nov.2019.15 J.Wang,Y.Ding,S.Bian,Y.Peng,M.Liu,and G.Gui,“UL-CSI datadriven deeplearning for predicting DL-CSI in cellular FD
216、D systems,”IEEE Access,vol.7,pp.9610596112,2019.84 16M.Arnold,S.Drner,S.Cammerer,S.Yan,J.Hoydis,and S.T.Brink,“Enabling FDDmassive MIMO through deep learning-based channel prediction,”Jan.2019.Online.Available:arXiv:1901.036.17 W.Liu,L.-L.Yang,and L.Hanzo,“Recurrent neural network based narrowbandch
217、annel prediction,”in Proc.IEEE 63rd Veh.Technol.Conf.(VTC),Melbourne,VIC,Australia,May 2006,pp.21732177.18T.Ding and A.Hirose,“Fading channel prediction based on combination ofcomplex-valued neural networks and chirp Z-transform,”IEEE Trans.Neural Netw.Learn.Syst.,vol.25,no.9,pp.16861695,Sep.2014.19
218、 J.Yuan,H.Q.Ngo and M.Matthaiou,Machine Learning-Based Channel Prediction inMassive MIMO With Channel Aging,in IEEE Transactions on WirelessCommunications,vol.19,no.5,pp.2960-2973,May 2020,doi:10.1109/TWC.2020.2969627.20 Luo,Changqing,et al.Channel state information prediction for 5G wirelesscommuni
219、cations:A deep learning approach.IEEE Transactions on Network Scienceand Engineering(2018).21 Sutskever,Ilya,Oriol Vinyals,and Quoc V.Le.Sequence to sequence learning withneural networks.Advances in neural information processing systems.2014.22 Huangfu,Yourui,et al.Predicting the mumble of wireless
220、channel withsequence-to-sequence models.2019 IEEE 30th Annual International Symposium onPersonal,Indoor and Mobile Radio Communications(PIMRC).IEEE,2019.23 Huangfu,Yourui,et al.Realistic Channel Models Pre-training.2019 IEEE GlobecomWorkshops(GC Wkshps).IEEE,2019.24 T.Gruber,S.Cammerer,J.Hoydis,and
221、S.t Brink,“On deep learning-based channeldecoding,”in 2017 51st Annual Conference on Information Sciences and Systems(CISS),Mar.2017.25 He Y,Zhang J,Wen C K,et al.TurboNet:A model-driven DNN decoder based onmax-log-MAP algorithm for turbo codeC/2019 IEEE VTS Asia Pacific WirelessCommunications Sympo
222、sium(APWCS).IEEE,2019:1-5.26 Y.He,J.Zhang,Shi Jin,C.-K.Wen,G.Y.Li,“Model-Driven DNN Decoder for TurboCodes:Design,Simulation,and Experimental Results,”IEEE Trans.Commun.,vol.68,no.10,pp.61276140,Oct.202027 Elkelesh A,Ebada M,Cammerer S,et al.Decoder-tailored polar code design using thegenetic algori
223、thmJ.IEEE Transactions on Communications,2019,67(7):4521-4534.28 Nisioti E,Thomos N.Design of Capacity-Approaching Low-Density Parity-CheckCodes using Recurrent Neural NetworksJ.arXiv preprint arXiv:2001.01249,2020.29 OShea T J,Corgan J,Clancy T C.Convolutional radio modulation recognitionnetworksC/
224、International conference on engineering applications of neural networks.Springer,Cham,2016:213-22630 Shental O,Hoydis J.Machine LLRning:Learning to Softly DemodulateJ.arXivpreprint arXiv:1907.01512,2019.31 M.Stark,F.A.Aoudia,and J.Hoydis,“Joint Learning of Geometric and ProbabilisticConstellation Sh
225、aping,”in 2019 IEEE Globecom Workshops(GC Wkshps),Dec.2019.32 R.T.Jones,T.A.Eriksson,M.P.Yankov,and D,Zibar,“Deep Learning of GeometricShaping Including Fiber Nonlinearities,”in 2018 European Conference on OpticalCommunication(ECOC),Sep.201833 C.Wen,et al,“Deep Learning for Massive MIMO CSI Feedback
226、,”in IEEE WCL,vol.7,no.5,pp.748-751,Oct.201885 34 J.Joung,“Machine Learning-Based Antenna Selection in Wireless Communications,”IEEE Communications Letters,vol,20,no,11,pp.2241-2244,Nov.2016.35 F.Sohrabi,H.V.Cheng,and W.Yu,“Robust Symbol-Level Precoding ViaAutoencoder-Based Deep Learning,”in 2020 IE
227、EE International Conference onAcoustics,Speech and Signal Processing(ICASSP),May 2020.36 H.He,C.-K.Wen,S.Jin,and G.Y.Li,“A Model-Driven Deep Learning Network forMIMO Detection,”in 2018 IEEE Global Conference on Signal and InformationProcessing(GlobalSIP),Nov.201837 J.R.Hershey,J.L.Roux,and F.Weninge
228、r,“Deep Unfolding:Model-Based Inspirationof Novel Deep Architectures,”Online https:/arxiv.org/abs/1409.2574.pdf,Nov.201438 Z.Zhao,M.C.Vuran,F.Guo,and S.Scott,“Deep-Waveform:A Learned OFDMReceiver Based on Deep Complex Convolutional Networks,”Onlinehttps:/arxiv.org/pdf/1810.07181.pdf,Nov.2018.39 M.Ki
229、m,W.Lee,and D.-H.Cho,“A Novel PAPR Reduction Scheme for OFDM SystemBased on Deep Learning,”IEEE Communications Letters,vol.22,no.3,pp.510-513,Mar.2018.40 A.E.Gamal,Y-H.Kim.Network information theoryM.Cambridge:CambridgeUniversity Press,2011.41 H.Cui,C.Luo,C.W.Chen and F.Wu,“Robust uncoded video tran
230、smission overwireless fast fading channel,”IEEE INFOCOM 2014-IEEE Conference on ComputerCommunications,Toronto,ON,Canada,2014,pp.73-81.42 S.Jakubczak and D.Katabi,SoftCast:Clean-slate scalable wireless video,2010 48thAnnual Allerton Conference on Communication,Control,and Computing(Allerton),Montice
231、llo,IL,USA,2010,pp.530-53343 Bourtsoulatze E,Kurka D B,Gndz D.Deep joint source-channel coding for wirelessimage transmissionJ.IEEE Transactions on Cognitive Communications andNetworking,2019,5(3):567-579.44 L.Huang,H.Zhang,R.Li,Y.Ge,and J.Wang,AI Coding:Learning to ConstructError Correction Codes,I
232、EEE Transactions on Communications,vol.68,no.1,pp.26-39,Jan.2020.45 Huang,Lingchen,et al.Reinforcement learning for nested polar code construction.2019 IEEE Global Communications Conference(GLOBECOM).IEEE,2019.46 Wang,Jun,et al.Artificial intelligence and wireless communications.Frontiers ofInformat
233、ion Technology&Electronic Engineering(2020):1-13.47 R.Atallah,C.Assi,and M.Khabbaz,“Deep reinforcement learningbased scheduling forroadside communication networks,”in 2017 15th International Symposium onModeling and Optimization in Mobile,Ad Hoc,and Wireless Networks(WiOpt).IEEE,2017,pp.18.48 S.Chin
234、chali,P.Hu,T.Chu,M.Sharma,M.Bansal,R.Misra,M.Pavone,and S.Katti,“Cellular network traffic scheduling with deep reinforcement learning,”inThirty-Second AAAI Conference on Artificial Intelligence,2018.49 Y.Wei,Z.Zhang,F.R.Yu,and Z.Han,“Joint user scheduling and content cachingstrategy for mobile edge
235、networks using deep reinforcement learning,”in 2018 IEEEInternational Conference on Communications Workshops(ICC Workshops).IEEE,2018,pp.16.50 M.Chu,H.Li,X.Liao,and S.Cui,“Reinforcement learning based multi-access controland battery prediction with energy harvesting in iot systems,”IEEE Internet of
236、ThingsJournal,2018.86 51 Zhang,Lin,and Ying-Chang Liang.Deep Reinforcement Learning for Multi-AgentNon-Cooperative Power Control in Heterogeneous Networks.arXiv preprintarXiv:2004.12095(2020).52 Zhao,Nan,et al.Deep reinforcement learning for user association and resourceallocation in heterogeneous c
237、ellular networks.IEEE Transactions on WirelessCommunications 18.11(2019):5141-5152.53 Nasir,Yasar Sinan,and Dongning Guo.Multi-agent deep reinforcement learning fordynamic power allocation in wireless networks.IEEE Journal on Selected Areas inCommunications 37.10(2019):2239-2250.54 Naderializadeh,Na
238、vid,et al.Resource Management in Wireless Networks viaMulti-Agent Deep Reinforcement Learning.arXiv preprint arXiv:2002.06215(2020).55 Wang,Jian,et al.Deep reinforcement learning for scheduling in cellular networks.2019 11th International Conference on Wireless Communications and Signal Processing(W
239、CSP).IEEE,2019.56 Xu,Chen,et al.Buffer-aware wireless scheduling based on deep reinforcementlearning.2020 IEEE Wireless Communications and Networking Conference(WCNC).IEEE,2020.57 H.Ye,G.Y.Li and B.-H.Juang,“Power of deep learning for channel estimation andsignal detection in OFDM systems,”IEEE Wire
240、less Communications Letters,vol.7,no.1,pp.114-117,February 2018.58 D.Neumann,T.Wiese and W.Utschick,“Learning the MMSE channel estimator,”IEEE Transactions on Signal Processing,vol.11,no.66,pp.2905-2917,June 2018.59 X.Cheng,D.Liu,C.Wang,S.Yan and Z.Zhu,“Deep-learning based channelestimation and equa
241、lization scheme for FBMC/OQAM systems,”in IEEE WirelessCommunications Letters,2019.60 Y.Yang,F.Gao,X.Ma and S.Zhang,“Deep learning-based channel estimation fordoubly selective fading channels,”in IEEE Access,2019.61 A.Aboutaleb,W.Fatnassi,M.Soltani,and Z.Rezki,“Symbol detection and channelestimation
242、 using neural networks in optical communication systems,”IEEEInternational Conference on Communications(ICC):Wireless CommunicationsSymposium,2019.62 E.Balevi and J.G.Andrews,“Deep learning-based channel estimation forhigh-dimensional signals,”preprint arXiv:1904.09346,2019.63 T.-H.Li,M.R.A.Khandake
243、r,F.Tariq,K.-K.Wong and R.T.Khan,“Learning thewireless V2I channels using deep neural networks,”preprint arXiv:1907.04831,2019.64 S.Han,Y.Oh and C.Song,“A deep learning based channel estimation scheme forIEEE 802.11p systems,”in Proc.IEEE International Conference on Communications(ICC),2019.65 H.Mao
244、,H.Lu,Y.Lu and D.Zhu,“RoemNet:Robust meta learning based channelestimation in OFDM systems,”in Proc.IEEE International Conference onCommunications(ICC),2019.66 E.Balevi,A.Doshi and J.G.Andrews,“Massive MIMO channel estimation with anuntrained deep neural network,”preprint arXiv:1908.00144,2019.67 S.
245、Gao,P.Dong,Z.Pan and G.Y.Li,“Deep-learning based channel estimation formassive MIMO with mixed-resolution ADCs,”preprint arXiv:1908.06245,2019.68 Q.Bai,J.Wang,Y.Zhang and J.Song,“Deep-learning based channel estimationalgorithm over time selective fading channels,”preprint arXiv:1908.11013,2019.87 69
246、.T.Demir and E.Bjrnson,“Channel estimation in massive MIMO under hardwarenon-linearities:Bayesian methods versus deep learning,”preprint arXiv:1911.07316,2019.70 M.B.Mashhadi,and D.Gndz,“Deep learning for massive MIMO channel stateacquisition and feedback,”preprint arXiv:2002.06945,2020.71 X.Ma and
247、Z.Gao,“Data-Driven Deep Learning to Design Pilot and Channel EstimatorFor Massive MIMO,”IEEE Transactions on Vehicular Technology,vol.69,no.5,pp.5677-5682,May 2020.72 Foad Sohrabi,Kareem M.Attiah,Wei Yu,“Deep Learning for Distributed ChannelFeedback and Multiuser Precoding in FDD Massive MIMO”,arXiv
248、:2007.0651273 M.Soltani,V.Pourahmadi,and H.Sheikhzadeh,“Pilot Pattern Design for DeepLearning-Based Channel Estimation in OFDM Systems,”preprint arXiv:2003.08980,2020.74 Y.-S.Jeon,J.Li,N.Tavangaran,and H.V.Poor,“Data-Aided Channel Estimator forMIMO Systems via Reinforcement Learning,”preprint arXiv:
249、2003.10084,2020.75 H.He,C.Wen,S.Jin and G.Y.Li,Deep Learning-Based Channel Estimation forBeamspace mmWave Massive MIMO Systems,in IEEE Wireless CommunicationsLetters,vol.7,no.5,pp.852-855,Oct.2018,doi:10.1109/LWC.2018.2832128.76 H.T.He,R.Wang,S.Jin,C.-K.Wen and G.Y.Li,“Beamspace channel estimation i
250、nTerahertz communications:A model-driven unsupervised learning approach,”2020,arXiv:2006.16628.77 H.He,C.-K.Wen,S.Jin and G.Y.Li,“Model-driven deep learning for joint MIMOchannel estimation and signal detection,”preprint arXiv:1907.09439,2019.78 X.Ru,L.Wei,and Y.Xu,“Model-driven channel estimation f
251、or OFDM systems basedon image super-resolution network,”preprint arXiv:1911.13106,2019.79 Dong C,Loy C C,He K,et al.Image Super-Resolution Using Deep ConvolutionalNetworks.IEEE Trans Pattern Anal Mach Intell,2016,38(2):295-30780 Kai Z,Zuo W,Chen Y,et al.Beyond a Gaussian Denoiser:Residual Learning o
252、f DeepCNN for Image Denoising.IEEE Transactions on Image Processing,2016,26(7):3142-3155.81 W.Jiang and H.D.Schotten,“Neural Network-Based Channel Prediction and ItsPerformance in Multi-Antenna Systems,”in 2018 IEEE 88th Vehicular TechnologyConference(VTC-Fall),Aug.2018,pp.16,doi:10.1109/VTCFall.201
253、8.8690590.82 W.Jiang and H.D.Schotten,“Recurrent Neural Network-Based Frequency-DomainChannel Prediction for Wideband Communications,”in 2019 IEEE 89th VehicularTechnology Conference(VTC2019-Spring),Apr.2019,pp.16,doi:10.1109/VTCSpring.2019.8746352.83 J.Ahrens,L.Ahrens and H.D.Schotten,“A machine le
254、arning method for prediction ofmultipath channels,”preprint arXiv:1909.04824,2019.84 Y.Yang,F.Gao,Z.Zhong,B.Ai,and A.Alkhateeb,“Deep transfer learning baseddownlink channel prediction for FDD massive MIMO systems,”preprintarXiv:1912.12265,2019.85 Y.Wang,X.Chen,H.Yin,and W.Wang,“Learnable sparse tran
255、sformation basedmassive MIMO CSI recovery network,”IEEE Commun.Lett.,vol.24,no.7,pp.1468-1471,Jul.2020.86 M.Safari and V.,“Deep UL2DL:Channel knowledge transfer from uplink todownlink,”preprint arXiv:1812.07518,2018.88 87 M.Alrabeiah and A.Alkhateeb,“Deep learning for TDD and FDD massive MIMO:Mappin
256、g channels in space and frequency,”preprint arXiv:1905.03761,2019.88 F.Gao,title to be updated by Feifei Gao89 Z.Xiao,Z.Zhang,Z.Chen,Z.Yang and R.Jin,Mobile MIMO Channel Predictionwith ODE-RNN:a Physics-Inspired Adaptive Approach,accepted by 2022 IEEE 33ndAnnual International Symposium on Personal,I
257、ndoor and Mobile RadioCommunications(PIMRC).90 Z.Xiao,Z.Zhang,C.Huang,X.Chen,C.Zhong,and M.Debbah,“C-GRBFnet:APhysics-Inspired Generative Deep Neural Network for Channel Representation andPrediction,”in IEEE Journal on Selected Areas in Communications(IF=13.081),2022,doi:10.1109/JSAC.2022.3180800.91
258、 C.K.Wen,W.T.Shih,and S.Jin,“Deep learning for massive MIMO CSI feedback,”IEEE Wireless Commun.Lett.,vol.7,no.5,pp.748-751,Oct.201892 T.Wang,C.Wen,S.Jin and G.Y.Li,“Deep learning-based CSI feedback approach fortime-varying massive MIMO channels,”IEEE Wireless Commun.Lett.,vol.8,no.2,pp.416-419,Apr.2
259、019.93 J.Guo,C.Wen,S.Jin,and G.Y.Li,“Convolutional neural network-based multiple-ratecompressive sensing for massive MIMO CSI feed-back:Design,simulation,andanalysis,”IEEE Trans.Wireless Commun.,vol.19,no.4,pp.28272840,2020.94 J.Guo,C.Wen,S.Jin,“Deep Learning-Based CSI Feedback for Beamforming inSin
260、gle-and Multi-cell Massive MIMO Systems,”IEEE Journal on Selected Areas inCommunications,2021.95 Z.Chen,Z.Zhang and Z.Xiao,Viewing the MIMO Channel as Sequence Rather thanImage:A Seq2Seq Approach for Efficient CSI Feedback,2022 IEEE WirelessCommunications and Networking Conference(WCNC),2022,pp.2292
261、-2297,doi:10.1109/WCNC51071.2022.9771730.96 Y.Jiang,H.Kim,H.Asnani,S.Kannan,S.Oh,and P.Viswanath,“Turbo autoencoder:Deep learning based channel codes for point-to-point communication channels,”arXivpreprint arXiv:1911.03038v1,2019.97 T.OShea and J.Hoydis,“An introduction to deep learning for the phy
262、sical layer,”IEEE Trans.Cog.Commun.Netw.,vol.3,no.4,pp.563575,2017.98 S.Dorner,S.Cammerer,J.Hoydis,and S.T.Brink,“Deep learning basedcommunication over the air,”IEEE J.Sel.Topics Signal Process.,vol.12,no.1,pp.132143,Feb.2018.99 F.Ait Aoudia and J.Hoydis,“Trimming the Fat from OFDM:Pilot-and CP-less
263、Communication with End-to-end Learning,”arXiv:2101.08213v3,Apr.2021.100E.Arikan,Channel Polarization:A Method for Constructing Capacity-AchievingCodes for Symmetric Binary-Input Memoryless Channels,in IEEE Transactions onInformation Theory,vol.55,no.7,pp.3051-3073,July 2009.101E.Nachmani,Y.Beery and
264、 D.Burshtein,Learning to decode linear codes using deeplearning,2016 54th Annual Allerton Conference on Communication,Control,andComputing(Allerton),Monticello,IL,2016,pp.341-346.102J.Zhang,Y.Huang,Y.Zhou,and X.You,“Beam alignment and tracking for millimeterwave communications via bandit learning,”I
265、EEE Trans.Commun.,vol.68,no.9,pp.5519-5533,2020.103J.Zhang,Y.Huang,Q.Shi,J.Wang,and L.Yang,“Codebook design for beamalignment in millimeter wave communication systems,”IEEE Trans.Commun.,vol.65,no.11,pp.49804995,Nov 2017.89 104J.Zhang,Y.Huang,J.Wang,X.You,and C.Masouros,“Intelligent interactive beam
266、training for millimeter wave communications,”IEEE Trans.Wireless Commun.,pp.1-1,2020.105J.Zhang,Y.Huang,J.Wang,and X.You,“Intelligent beam training formillimeter-wave communications via deep reinforcement learning,”in 2019 IEEEGLOBECOM,Dec 2019,pp.17.106J.Zhang,Y.Huang,J.Wang,X.You,and C.Masouros,“I
267、ntelligent interactive beamtraining for millimeter wave communications,”IEEE Trans.Wireless Commun.,pp.11,2020.107E.Nachmani,E.Marciano,L.Lugosch,W.J.Gross,D.Burshtein and Y.Beery,DeepLearning Methods for Improved Decoding of Linear Codes,in IEEE Journal ofSelected Topics in Signal Processing,vol.12
268、,no.1,pp.119-131,Feb.2018.108Y.Huang,Z.Zhang,J.Che,Z.Yang,Q.Yang,and W.Kai-Kit“Self-AttentionReinforcement Learning for Multi-Beam Combining in mmWave 3D-MIMO Systems,”Sci.China.Inf.Sci.(SCIS),to appear,2022.109S.Cammerer,T.Gruber,J.Hoydis and S.ten Brink,Scaling Deep Learning-BasedDecoding of Polar
269、 Codes via Partitioning,GLOBECOM 2017-2017 IEEE GlobalCommunications Conference,Singapore,2017,pp.1-6.110F.Liang,C.Shen and F.Wu,An Iterative BP-CNN Architecture for ChannelDecoding,in IEEE Journal of Selected Topics in Signal Processing,vol.12,no.1,pp.144-159,Feb.2018.111J.Wang,Y.Ding,S.Bian,Y.Peng
270、,M.Liu,and G.Gui,“UL-CSI datadriven deeplearning for predicting DL-CSI in cellular FDD systems,”IEEE Access,vol.7,pp.9610596112,2019.112C.Chen,C.Teng and A.A.Wu,Low-Complexity LSTM-Assisted Bit-FlippingAlgorithm For Successive Cancellation List Polar Decoder,ICASSP 2020-2020 IEEEInternational Confer
271、ence on Acoustics,Speech and Signal Processing(ICASSP),Barcelona,Spain,2020,pp.1708-1712.113H.Huang,Y.Song,J.Yang,G.Gui and F.Adachi,Deep-Learning-BasedMillimeter-Wave Massive MIMO for Hybrid Precoding,in IEEE Transactions onVehicular Technology,vol.68,no.3,pp.3027-3032,March 2019.114T.Lin and Y.Zhu
272、,“Beamforming design for large-scale antenna arrays using deeplearning,”IEEE Wireless Commun.Lett.,vol.9,no.1,pp.103107,Jan.2020.115A.Alkhateeb,S.P.Alex,P.Varkey,Y.Li,Q.Z.Qu,and D.Tujkovic,“Deep learningcoordinated beamforming for highly-mobile millimeter wave systems,”IEEE Access,vol.6,pp.373283734
273、8,Jun.2018.116M.Elbir,“CNN-based precoder and combiner design in mmWave MIMO systems,”IEEE Commun.Lett.,vol.23,no.7,pp.12401243,Jul.2019.117M.Elbir and K.V.Mishra,“Joint antenna selection and hybrid beamformer designusing unquantized and quantized deep learning networks,”arXiv:1905.03107,May2019.118
274、M.Elbir and A.K.Papazafeiropoulos,Hybrid Precoding for Multiuser MillimeterWave Massive MIMO Systems:A Deep Learning Approach,in IEEE Transactions onVehicular Technology,vol.69,no.1,pp.552-563,Jan.2020.119X.Li and A.Alkhateeb,Deep Learning for Direct Hybrid Precoding in MillimeterWave Massive MIMO S
275、ystems,2019 53rd Asilomar Conference on Signals,Systems,and Computers,Pacific Grove,CA,USA,2019,pp.800-805.90 120Chen,Wei,et al.Solving Sparse Linear Inverse Problems in Communication Systems:A Deep Learning Approach With Adaptive Depth.IEEE Journal on Selected Areas inCommunications,2021.121X.Gao,L
276、.Dai,Y.Zhang,T.Xie,X.Dai and Z.Wang,Fast Channel Tracking forTerahertz Beamspace Massive MIMO Systems,in IEEE Transactions on VehicularTechnology,vol.66,no.7,pp.5689-5696,July 2017.122A.Alkhateeb,S.Alex,P.Varkey,Y.Li,Q.Qu,and D.Tujkovic,“Deep learningcoordinated beamforming for highly-mobile millime
277、ter wave systems,”IEEE Access,vol.6,pp.37 32837 348,2018.123V.Va,J.Choi,T.Shimizu,G.Bansal,and R.W.Heath,“Inverse multipathfingerprinting for millimeter wave V2I beam alignment,”IEEE Trans.Veh.Technol.,vol.67,no.5,pp.40424058,May 2018.124J.C.Aviles and A.Kouki,“Position-aided mm-wave beam training u
278、nder nlosconditions,”IEEE Access,vol.4,pp.87038714,2016.125J.Zhang,Y.Huang,Y.Zhou,and X.You,“Beam Alignment and Tracking forMillimeter Wave Communications via Bandit Learning,”IEEE Transactions onCommunications,Apr.2020.126G.Gui,H.Huang,Y.Song and H.Sari,Deep Learning for an Effective NonorthogonalM
279、ultiple Access Scheme,in IEEE Transactions on Vehicular Technology,vol.67,no.9,pp.8440-8450,Sept.2018,doi:10.1109/TVT.2018.2848294.127Z.Zhang,Y.Li,C.Huang,Q.Guo,C.Yuen and Y.L.Guan,DNN-Aided Block SparseBayesian Learning for User Activity Detection and Channel Estimation in Grant-FreeNon-Orthogonal
280、Random Access,in IEEE Transactions on Vehicular Technology,vol.68,no.12,pp.12000-12012,Dec.2019,doi:10.1109/TVT.2019.2947214.128W.Kim,Y.Ahn and B.Shim,Deep Neural Network-Based Active User Detection forGrant-Free NOMA Systems,in IEEE Transactions on Communications,vol.68,no.4,pp.2143-2155,April 2020
281、,doi:10.1109/TCOMM.2020.2969184.129W.Kim,G.Lim,Y.Ahn and B.Shim,Active User Detection of Machine-TypeCommunications via Dimension Spreading Neural Network,ICC 2019-2019 IEEEInternational Conference on Communications(ICC),Shanghai,China,2019,pp.1-6,doi:10.1109/ICC.2019.8761407.130G.I.Kechriotis and E
282、.S.Manolakos,Hopfield neural network implementation of theoptimal CDMA multiuser detector,in IEEE Transactions on Neural Networks,vol.7,no.1,pp.131-141,Jan.1996,doi:10.1109/72.478397.131N.Samuel,T.Diskin and A.Wiesel,Deep MIMO detection,2017 IEEE 18thInternational Workshop on Signal Processing Advan
283、ces in Wireless Communications(SPAWC),Sapporo,2017,pp.1-5,doi:10.1109/SPAWC.2017.8227772.132N.Samuel,T.Diskin and A.Wiesel,Learning to Detect,in IEEE Transactions onSignal Processing,vol.67,no.10,pp.2554-2564,15 May15,2019,doi:10.1109/TSP.2019.2899805.133Tan,Xiaosi,et al.Improving massive MIMO belie
284、f propagation detector with deepneural network.arXiv preprint arXiv:1804.01002(2018).134He H,Wen C K,Jin S,et al.A model-driven deep learning network for MIMOdetectionC/2018 IEEE Global Conference on Signal and Information Processing(GlobalSIP).IEEE,2018:584-588.135Bai Y,Ai B,Chen W.Deep learning ba
285、sed fast multiuser detection for massivemachine-type communicationC/2019 IEEE 90th Vehicular Technology Conference(VTC2019-Fall).IEEE,2019:1-5.91 136Khani,Mehrdad,et al.Adaptive neural signal detection for massive MIMO.IEEETransactions on Wireless Communications(2020).137Zhang C.Deep Learning Based
286、Multi-user Interference Cancellation TechnologyJ.Science Discovery,2019,7(6).138Q.Zhang,M.Lin,L.T.Yang,Z.Chen and P.Li,Energy-Efficient Scheduling forReal-Time Systems Based on Deep Q-Learning Model,in IEEE Transactions onSustainable Computing,vol.4,no.1,pp.132-141,1 Jan.-March 2019,doi:10.1109/TSUS
287、C.2017.2743704.139Atallah,Ribal et al.“Deep reinforcement learning-based scheduling for roadsidecommunication networks.”2017 15th International Symposium on Modeling andOptimization in Mobile,Ad Hoc,and Wireless Networks(WiOpt)(2017):1-8.140Haoran Sun,Xiangyi Chen,Qingjiang Shi,Mingyi Hong,Xiao Fu,a
288、nd Nikos DSidiropoulos.Learning to optimize:Training deep neural networks for wireless resourcemanagement.In Proc.18th IEEE International Workshop on Signal ProcessingAdvances in Wireless Communications(SPAWC),pages 16,2017.141Zhiyuan Xu,Yanzhi Wang,Jian Tang,Jing Wang,and Mustafa Cenk Gursoy.A deep
289、reinforcement learning based framework for power efficient resource allocation in cloudRANs.In Proc.2017 IEEE International Conference on Communications(ICC),pages16.142Zhi Zhou,Xu Chen,En Li,Liekang Zeng,Ke Luo,and Junshan Zhang.EdgeIntelligence:Paving the Last Mile of Artificial Intelligence With
290、Edge Computing,Proceedings of the IEEE(PIEEE),Vol.107,No.8,pp.1738 1762,Aug.2019.143C.Pandana and K.J.R.Liu,Near-optimal reinforcement learning framework forenergy-aware sensor communications,in IEEE Journal on Selected Areas inCommunications,vol.23,no.4,pp.788-797,April 2005,doi:10.1109/JSAC.2005.8
291、43547.144G.Naddafzadeh-Shirazi,P.Kong and C.Tham,Distributed Reinforcement LearningFrameworks for Cooperative Retransmission in Wireless Networks,in IEEETransactions on Vehicular Technology,vol.59,no.8,pp.4157-4162,Oct.2010,doi:10.1109/TVT.2010.2059055.145N.Mastronarde and M.van der Schaar,Fast Rein
292、forcement Learning forEnergy-Efficient Wireless Communication,in IEEE Transactions on Signal Processing,vol.59,no.12,pp.6262-6266,Dec.2011,doi:10.1109/TSP.2011.2165211.146L.Liang,H.Ye and G.Y.Li,Spectrum Sharing in Vehicular Networks Based onMulti-Agent Reinforcement Learning,in IEEE Journal on Sele
293、cted Areas inCommunications,vol.37,no.10,pp.2282-2292,Oct.2019,doi:10.1109/JSAC.2019.2933962.147S.Maghsudi and S.Staczak,Hybrid CentralizedDistributed Resource Allocation forDevice-to-Device Communication Underlaying Cellular Networks,in IEEETransactions on Vehicular Technology,vol.65,no.4,pp.2481-2
294、495,April 2016,doi:10.1109/TVT.2015.2423691.148Y.Wei,F.R.Yu,M.Song and Z.Han,User Scheduling and Resource Allocation inHetNets With Hybrid Energy Supply:An Actor-Critic Reinforcement LearningApproach,in IEEE Transactions on Wireless Communications,vol.17,no.1,pp.680-692,Jan.2018.149L.Xiao,Y.Li,C.Dai
295、,H.Dai and H.V.Poor,Reinforcement Learning-Based NOMAPower Allocation in the Presence of Smart Jamming,in IEEE Transactions onVehicular Technology,vol.67,no.4,pp.3377-3389,April 2018.92 150W.Cui,K.Shen and W.Yu,Spatial Deep Learning for Wireless Scheduling,2018IEEE Global Communications Conference(G
296、LOBECOM),Abu Dhabi,United ArabEmirates,2018,pp.1-6,doi:10.1109/GLOCOM.2018.8647453.151C.Fan,B.Li,C.Zhao,W.Guo and Y.Liang,Learning-Based Spectrum Sharing andSpatial Reuse in mm-Wave Ultradense Networks,in IEEE Transactions on VehicularTechnology,vol.67,no.6,pp.4954-4968,June 2018.152M.Chen,W.Saad an
297、d C.Yin,Echo State Networks for Self-Organizing ResourceAllocation in LTE-U With UplinkDownlink Decoupling,in IEEE Transactions onWireless Communications,vol.16,no.1,pp.3-16,Jan.2017.153S.Wang,H.Liu,P.H.Gomes and B.Krishnamachari,Deep Reinforcement Learningfor Dynamic Multichannel Access in Wireless
298、 Networks,in IEEE Transactions onCognitive Communications and Networking,vol.4,no.2,pp.257-265,June 2018.154J.Zhu,Y.Song,D.Jiang and H.Song,A New Deep-Q-Learning-Based TransmissionScheduling Mechanism for the Cognitive Internet of Things,in IEEE Internet ofThings Journal,vol.5,no.4,pp.2375-2385,Aug.
299、2018.155Y.S.Nasir and D.Guo,Multi-Agent Deep Reinforcement Learning for DynamicPower Allocation in Wireless Networks,in IEEE Journal on Selected Areas inCommunications,vol.37,no.10,pp.2239-2250,Oct.2019.156G.Alnwaimi,S.Vahid and K.Moessner,Dynamic Heterogeneous Learning Games forOpportunistic Access
300、 in LTE-Based Macro/Femtocell Deployments,in IEEETransactions on Wireless Communications,vol.14,no.4,pp.2294-2308,April 2015.157L.Wang,Y.Chao,S.Cheng and Z.Han,An Integrated Affinity Propagation andMachine Learning Approach for Interference Management in Drone Base Stations,inIEEE Transactions on Co
301、gnitive Communications and Networking,vol.6,no.1,pp.83-94,March 2020.158Barcelo J,Bellalta B,Cano C,et al.Learning-BEB:Avoiding Collisions in WLANsJ.Carrier Sense Multiple Access with Enhanced Collision Avoidance,2009:23.159K.W.Choi and E.Hossain,Opportunistic Access to Spectrum Holes Between Packet
302、Bursts:A Learning-Based Approach,in IEEE Transactions on WirelessCommunications,vol.10,no.8,pp.2497-2509,August 2011.160Yibo Zhu,Haggai Eran,Daniel Firestone,Chuanxiong Guo,Marina Lipshteyn,Yehonatan Liron,Jitendra Padhye,Shachar Raindel,Mohamad Haj Yahia,and MingZhang.Congestion Control for Large-S
303、cale RDMA Deployments.In SIGCOMM,2015.161Zhang L,Wang M,Yang Z,et al.Machine Learning for Internet Congestion Control:Techniques and ChallengesJ.IEEE Internet Computing,2019,23(5):59-64.162Hongzi Mao,Ravi Netravali,and Mohammad Alizadeh.Neural Adaptive VideoStreaming with Pensieve,2017,SIGCOMM 17.AC
304、M,New York,NY,USA,197-210.163Qi Chen,Wei Wang,F.Richard Yu,Meixia Tao,Zhaoyang Zhang,Content CachingOriented Popularity Prediction:A Weighted Clustering Approach,IEEE Transactionson Wireless Communications,early access.164N.Jay,N.Rotman,B.Godfrey,M.Schapira,and A.Tamar,“A deep reinforcementlearning
305、perspective on Internet congestion control,”in Proc.36th Int.Conf.Mach.Learn.,2019,vol.97,pp.30503059.165Letaief K.B.,Chen W.,Shi Y.,et al.The roadmap to 6G:AI empowered wirelessnetworks.IEEE Communications Magazine 57.8(2019):84-90.166S.M.S.Tanzil,W.Hoiles and V.Krishnamurthy,Adaptive Scheme for Ca
306、chingYouTube Content in a Cellular Network:Machine Learning Approach,in IEEE Access,vol.5,pp.5870-5881,2017,doi:10.1109/ACCESS.2017.2678990.93 167Y.Jiang,M.Ma,M.Bennis,F.Zheng and X.You,User Preference Learning-BasedEdge Caching for Fog Radio Access Network,in IEEE Transactions onCommunications,vol.
307、67,no.2,pp.1268-1283,Feb.2019,doi:10.1109/TCOMM.2018.2880482.168Qi Chen,Wei Wang,Wei Chen,F.Richard Yu,Zhaoyang Zhang,“Cache-EnabledMulticast Content Pushing with Structured Deep Learning,”IEEE Journal of SelectedAreas in Communications,submitted.169P.Cheng et al.,Localized Small Cell Caching:A Mach
308、ine Learning Approach Basedon Rating Data,in IEEE Transactions on Communications,vol.67,no.2,pp.1663-1676,Feb.2019,doi:10.1109/TCOMM.2018.2878231.170Juan Wen,Min Sheng,Jiandong Li,and Kaibin Huang,“Assisting Intelligent WirelessNetworks with Traffic Prediction:Exploring and Exploiting Predictive Cau
309、sality inWireless Traffic,”IEEE Commun.Mag.,vol.58,no.6,June 2020,pp 26-31171Z.Yang,Y.Liu,Y.Chen and L.Jiao,Learning Automata Based Q-Learning forContent Placement in Cooperative Caching,in IEEE Transactions on Communications,vol.68,no.6,pp.3667-3680,June 2020,doi:10.1109/TCOMM.2020.2982136.172L.Ale
310、,N.Zhang,H.Wu,D.Chen and T.Han,Online Proactive Caching in MobileEdge Computing Using Bidirectional Deep Recurrent Neural Network,in IEEEInternet of Things Journal,vol.6,no.3,pp.5520-5530,June 2019,doi:10.1109/JIOT.2019.2903245.173W.Chen and H.V.Poor,Content Pushing With Request Delay Information,in
311、 IEEETransactions on Communications,vol.65,no.3,pp.1146-1161,March 2017,doi:10.1109/TCOMM.2017.2648800.174Y.Lu,W.Chen and H.V.Poor,Coded Joint Pushing and Caching With AsynchronousUser Requests,in IEEE Journal on Selected Areas in Communications,vol.36,no.8,pp.1843-1856,Aug.2018,doi:10.1109/JSAC.201
312、8.2844918.175 W.Chen and H.V.Poor,Caching With Time Domain Buffer Sharing,in IEEETransactions on Communications,vol.67,no.4,pp.2730-2745,April 2019,doi:10.1109/TCOMM.2018.2884973.176H.Hui,W.Chen and L.Wang,Caching with Finite Buffer and Request DelayInformation:A Markov Decision Process Approach,in
313、IEEE Transactions on WirelessCommunications,doi:10.1109/TWC.2020.2989513.177C.Jiang,H.Zhang,Y.Ren,Z.Han,K.Chen and L.Hanzo,Machine LearningParadigms for Next-Generation Wireless Networks,IEEE Wireless Communications,vol.24,no.2,pp.98-105,April 2017.178 N.C.Luong,D.T.Hoang,S.Gong,D.Niyato,P.Wang,Y.Li
314、ang and D.I.Kim,Applications of Deep Reinforcement Learning in Communications and Networking:ASurvey,IEEE Communications Surveys&Tutorials,vol.21,no.4,pp.3133-3174,May 2019.179 N.Zhao,Y.Liang,D.Niyato,Y.Pei,M.Wu and Y.Jiang,Deep ReinforcementLearning for User Association and Resource Allocation in H
315、eterogeneous CellularNetworks,IEEE Transactions on Wireless Communications,vol.18,no.11,pp.5141-5152,Nov.2019180 H.Ye,G.Y.Li and B.F.Juang,Deep Reinforcement Learning Based ResourceAllocation for V2V Communications,IEEE Transactions on Vehicular Technology,vol.68,no.4,pp.3163-3173,April 2019.181A.Za
316、ppone,E.Bjrnson,L.Sanguinetti,and E.Jorswieck,“Globally optimalenergy-efficient power control and receiver design in wireless networks,”IEEETransactions on Signal Processing,vol.65,no.11,pp.28442859,Jun.2017.94 182J.Hu,H.Zhang,L.Song,Z.Han and H.V.Poor,Reinforcement Learning for aCellular Internet o
317、f UAVs:Protocol Design,Trajectory Control,and ResourceManagement,IEEE Wireless Communications,vol.27,no.1,pp.116-123,Feb.2020183M.Chu,H.Li,X.Liao and S.Cui,Reinforcement Learning-Based MultiaccessControl and Battery Prediction with Energy Harvesting in IoT Systems,IEEE Internetof Things Journal,vol.
318、6,no.2,pp.2009-2020,April 2019184H.Wang,Y.Wu,G.Min,J.Xu and P.Tang,“Data-driven dynamic resource schedulingfor network slicing:A deep reinforcement learning approach,”Information Sciences,vol.498,pp.106-116,Sept.2019.185 J.Perolat,JZ.Leibo,V.Zambaldi,C.Beattie,K.Tuyls and T.Graepel,“A Multi-AgentRei
319、nforcement Learning Model of Common-Pool Resource Appropriation,”in Proc.Advances in Neural Information Processing Systems,2017,pp.3643-3652.186H.Sun,X.Chen,Q.Shi,M.Hong,X.Fu and N.D.Sidiropoulos,Learning toOptimize:Training Deep Neural Networks for Interference Management,IEEETransactions on Signal
320、 Processing,vol.66,no.20,pp.5438-5453,Oct.2018.187J.Liu,H.Dai and W.Chen,“Delay Optimal Scheduling for Energy Harvesting BasedCommunications,”IEEE Journal on Selected Areas in Communications,vol.33,no.3,pp.452466,Mar.2015.188M.Wang,J.Liu,W.Chen,and A.Ephremides,“Joint Queue-Aware and Channel-AwareDe
321、lay Optimal Scheduling of Arbitrarily Bursty Traffic over Multi-State Time-VaryingChannels,”IEEE Transactions on Communications,vol.67,no.1,pp.503517,Jan.2019.189X.Zhao and W.Chen,Non-Orthogonal Multiple Access for Delay-SensitiveCommunications:A Cross-Layer Approach,IEEE Transactions on Communicati
322、ons,vol.67,no.7,pp.5053-5068,July 2019.190Danni Guo,Wei Wang,Qi Chen,Nan Zhao,and Zhaoyang Zhang,“Queue-StableDynamic Compression and Transmission with Mobile Edge Computing,”IEEEInternational Conference on Communications(ICC 2019),May 2019.191Yang K.,Jiang T.,Shi Y.,et al.Federated learning via ove
323、r-the-air computationJ.IEEETransactions on Wireless Communications,2020,19(3):2022-2035.192Chen M.,Yang Z.,Saad W.,et al.A joint learning and communications framework forfederated learning over wireless networksJ.arXiv preprint arXiv:1909.07972,2019.193Chen M.,Poor H.V.,Saad W.,et al.Convergence tim
324、e optimization for federatedlearning over wireless networksJ.arXiv preprint arXiv:2001.07845,2020.194S.Luo,X.Chen,Q.Wu,Z.Zhou and S.Yu.“HFEL:Joint Edge Association andResource Allocation for Cost-Efficient Hierarchical Federated Edge Learning”,IEEETransactions on Wierless Communications,Vol.19,No.10
325、,pp.6535 6548,2020.195Wang S.,Tuor T.,Salonidis T.,et al.Adaptive federated learning in resource constrainededge computing systemsJ.IEEE Journal on Selected Areas in Communications,2019,37(6):1205-1221.196Yang Y.,Zhang Z.,and Yang Z.Over-the-Air Split Learning with MIMO-Based NeuralNetwork and Const
326、ellation-Based Activation,to appear in 32nd IEEE Workshop onMachine Learning for Signal Processing(MLSP 2022),Xian,China,Aug.2022.197S.Zheng,C.Shen,and X.Chen,“Design and Analysis of Uplink and DownlinkCommunications for Federated Learning,”IEEE Journal on Selected Areas inCommunications,vol.39,no.7
327、,pp.21502167,Dec.2020,doi:10.1109/JSAC.2020.3041388.95 198Y.Tian,Z.Zhang,Z.Yang and R.Jin,Hierarchical Federated Learning with AdaptiveClustering on Non-IID Data Distribution,2022 IEEE Global CommunicationsConference,pp 1-6,2022.199Yang Z.,Chen M.,Saad W.,et al.Delay Minimization for Federated Learn
328、ing OverWireless Communication NetworksJ.arXiv preprint arXiv:2007.03462,2020.200Li T.,Sahu A.K.,Talwalkar A.,et al.Federated learning:Challenges,methods,andfuture directionsJ.IEEE Signal Processing Magazine,2020,37(3):50-60.201Yang Z.,Chen M.,Saad W.,et al.Energy efficient federated learning over w
329、irelesscommunication networksJ.arXiv preprint arXiv:1911.02417,2019.202Hosseinalipour S.,Brinton C.G.,Aggarwal V.,et al.From Federated Learning to FogLearning:Towards Large-Scale Distributed Machine Learning in HeterogeneousWireless NetworksJ.arXiv preprint arXiv:2006.03594,2020.203Han D,Chen W,Bai
330、B,et al.Offloading optimization and bottleneck analysis formobile cloud computing.IEEE Transactions on Communications,2019,67(9):6153-6167.204Fa Rsad N,Rao M,Goldsmith A.Deep Learning for Joint Source-Channel Coding ofText,in Proc.IEEE Intl.Conf.Acoustics Speech Signal Process.(ICASSP18),Calgary,AB,
331、Canada,2018:23262330.205Bourtsoulatze E,Kurka D B,Gunduz D.Deep Joint Source-Channel Coding forWireless Image Transmission,in Proc.IEEE Intl.Conf.Acoustics Speech Signal Process.(ICASSP18),Calgary,AB,Canada,2018:4774-4778.206Shi,G.,Gao,D.,Song,X.,Chai,J.,Yang,M.,Xie,X.,Li,L.,&Li,X.A newcommunication
332、 paradigm:from bit accuracy to semantic fidelity.ArXiv,2021:abs/2101.12649.207Han D,Chen W,Fang Y.Joint channel and queue aware scheduling for latency sensitivemobile edge computing with power constraints.accepted by IEEE Transactions onWireless Communications,2020.208Huangfu,Yourui,et al.Predicting
333、 the mumble of wireless channel withsequence-to-sequence models.2019 IEEE 30th Annual International Symposium onPersonal,Indoor and Mobile Radio Communications(PIMRC).IEEE,2019.209Huangfu,Yourui,et al.Realistic Channel Models Pre-training.2019 IEEE GlobecomWorkshops(GC Wkshps).IEEE,2019.210Study on channel model for frequencies from 0.5 to 100 GHz,3GPP TR 38.901 version17.0.0 Std.,April 2022.211Al