通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  三级通信军士

注册:2017-8-14197
跳转到指定楼层
1#
发表于 2025-11-14 10:53:10 |只看该作者 |倒序浏览
登山者1979 6G标准与技术探索

未来的 6G 系统将把机器学习能力嵌入无线协议栈的各个层级,从物理层(PHY)、MAC 层到无线资源管理(RRM)与控制层,实现“AI-Native”网络。
来自Nokia Bell和英国谢菲尔德大学电气与电子工程学院大学研究团队的最新论文《LLM-Based Emulation of the Radio Resource Control Layer: Towards AI-Native RAN Protocols》提出了一个开创性思路:
  • 可以将 RRC 消息视为一种“领域专用语言”(Domain-Specific Language, DSL),而大型语言模型(LLM)天生擅长学习语言结构与语法。
  • 因此,只要让大模型学懂 RRC 的“语法”和“语义”,它就能自动生成符合 3GPP 标准的控制信令,取代传统程序员编写的复杂、基于规则的协议逻辑。


640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=0
研究团队基于多厂商的 4G/5G 信令日志数据集,对decoder-only的大语言模型(Llama 类架构, 8B 参数量) 进行低秩自适应(LoRA)微调。实验表明: 在超过 120 种配置中,该Large RRC Model在 RRC 消息仿真任务上达到了 中位语义相似度 0.97,ASN.1 合规率与状态机一致性(SMC)均接近 100%。证明了大语言模型能够以高语法与语义保真度模拟RRC控制协议,为未来 AI直接接管RRC交互任务奠定基础。

▍系统架构:Large RRC Model如何集成到基站中?
论文提出的系统架构将大模型嵌入到分布式 gNB 的控制面(CU-CP)中。基站被拆分为中央单元(CU)与分布式单元(DU),其中:
  • 大模型(Large RRC Model)嵌入 CU-CP替代传统基于规则的 RRC 逻辑。
  • 上行 RRC 消息(如连接请求)经 F1-C 接口输入模型,模型生成下行响应(如连接建立)。
  • 当模型决定初始化或修改数据承载时,会通过 E1 接口通知 CU-UP
  • 整个过程保持 3GPP 接口(F1、E1、F2)不变,实现 “无缝替换” 的兼容性。

640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=1 数据流与推理流程下图所示 640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=2
  • 选择基础大型基础模型(Llama-3 8B)。
  • 历史 UL–DL RRC日志构建训练样本,为监督微调提供标注数据。微调后,模型获得了RRC协议知识,能够准确模拟标准行为
  • 在推理阶段,微调后的模型集成在gNB的中央单元控制平面(CU-CP)中,实时处理上行RRC消息并生成下行响应。推理使用greedy decoding策略,确保低延迟和确定性输出,并据上行消息上下文(如连接请求或测量报告),结合历史交互和网络状态,动态合成下行消息(如连接建立或重配置)
  • 最终,模型输出的下行消息经过ASN.1编码以确保语法有效性,然后通过DU传输给UE。

▍模型学习: 如何“学会”RRC协议?(1) 数据集构建
研究团队使用了两类真实网络日志,覆盖连接建立、安全激活、重配置等关键流程:
  • 5G NR 数据集:约 30,000 对上行–下行消息对;
  • 4G LTE 数据集:约 4,800 轮对话。

下图是消息类型的分布,确保了数据集的多样性与覆盖度,避免了以往数据分割带来的协议断层。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=3
  • 所有数据均通过 ASN.1 解码与归一化,在 Byte Pair Encoding (BPE) 分词前进行线性化(linearization),以保持原始语法结构。
  • 上行(UL)消息被视为“问题”(Q),下行(DL)消息为“回答”(A),形成问答式(QA)训练样本,确保协议的因果关系与状态一致性。
  • 一个上行请求消息可能包含多个逻辑消息,被合并成一个完整的“询问”,以保持过程连续性。(如Q4和Q6)

RRC交互日志示例:
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=4 (2) 模型与训练配置微调采用 LoRA (Low-Rank Adaptation) 技术,在冻结基础权重的同时引入低秩更新矩阵,大幅降低训练成本。训练基于 Llama-3 8B 模型,并采用 监督微调(SFT) 目标函数: 640?wx_fmt=png&from=appmsg#imgIndex=5
其中 X为上行输入,Y 为下行输出。
训练使用 AdamW 优化器,损失函数采用交叉熵,学习率设置为2e-5(full FT)。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=6
训练损失在 8000 步左右趋于稳定,表明模型成功收敛。下面是训练损失图,红色虚线标记了最佳检查点。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=7
(3)提示词策略与模式约束
为了让模型输出符合标准,设计了三种提示(prompt)策略:
  • NoSys(无系统提示)策略:作为基线策略测试模型本身从训练数据中学到的先验知识。其系统提示极为简单,仅包含最基本的任务指令,不提供任何关于RRC协议结构或当前会话上下文的信息。该策略的ASN.1语法有效性通过率极低(Median ASN Pass Rate ≈ 0.01),证明了无约束生成无法满足电信级要求。
  • RRC(领域提示)策略:在系统提示中注入了领域知识,指明了当前的RRC上下文和期望的消息类型,为模型生成提供了明确的语义引导。其生成的文本在语义相似度(Median Similarity)上有显著提升(从NoSys的~0.50提升至~0.67)。然而,由于缺乏对输出结构的硬性约束,模型会“臆造”出协议中不存在的字段或错误的枚举值,导致ASN.1通过率依然接近零,无法保证语法有效性。
  • RRC_constrain (模式约束提示) 策略:这是该论文提出的关键策略,目的是解决RRC ASN.1合法性问题。它在RRC策略的基础上,在系统提示中嵌入了一个精简的、与当前会话相关的ASN.1微模式(Micro-schema) 以及参数约束(如允许的频点列表EARFCN)。该策略实现了近乎完美的协议合法性(ASN.1 Pass Rate > 0.99)和极高的语义相似度(Median Similarity ≈ 1.00),是唯一能满足部署需求的方案。


▍实验结果与性能评估
(1) 评估维度
  • 语义相似度(Semantic Similarity) - 采用Sentence-BERT(SBERT) 模型将生成的消息  和真实的消息 分别编码为高维向量(embeddings),然后计算它们的余弦相似度。衡量AI消息与真实信令的语义接近度。
    640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=8 640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=9
  • ASN.1语法有效性 - 包含两个层次: 1) Round-trip Validity (ASN.1 Pass Rate):只有当生成的消息能够被成功编码为二进制流,并能被重新解码回与原始生成消息在逻辑上等价的结构时,才视为通过。这项测试直接保证了生成消息与3GPP标准定义的语法100%兼容。2) Schema Recall / Coverage (模式检查):计算生成消息中出现的标准化信息元素(IE)与真实消息中存在的IE的重合比例,体现了表明生成的消息在字段层面完全忠实于标准的程度。
  • 上下行状态机一致性(SMC - state-machine check)- 依据3GPP TS 36.331定义状态转移表,检测生成的下行消息类型是否为上行输入类型的合法后继,且Transaction ID匹配。

(2) 结果分析
论文共测试超过 120 种模型配置(不同 backbone 模型、精度与微调方式)。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=10
在 RRC_constrain 模式下,微调模型性能几乎达到标准上限:
  • ASN.1 语法有效率 97 – 100 %
  • 中位语义相似度 ≈ 0.97
  • 状态机一致性 (SMC) 通过率 > 99 %

同时8B模型配合LoRA-Rank16在大模型上几乎等效于全参数微调。
(3) 延迟与量化分析
通信系统强调实时性与能耗,论文进一步比较了 FP16 与 INT4 量化 推理的延迟与保真度。 640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=11 640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=12
  • INT4 量化 相较 FP16 可将延迟降低 20 – 30 %;
  • 各项有效性指标仅轻微下降;
  • 在 RRC_constrain 模式 下:

    • 1B 与 3B 模型延迟约 1.7 – 3.6 秒;
    • 当前最佳延迟约 1.7 秒;
    • 虽未达到 100 毫秒 的 RRC 实时目标,但趋势明确:小模型 + 量化 + 约束推理是未来方向。


▍边缘与数据中心性能评估:权衡延迟、吞吐量与能效
针对边缘部署可行性,研究选取了两个具有代表性的硬件平台:代表移动边缘计算能力的Apple M2 Max(统一内存架构)和代表数据中心高性能计算的NVIDIA GH200 Grace Hopper超级芯片(内含一颗H100 GPU)。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=13
测试均采用经过微调与强约束提示(RRC_constrain)的最轻量级模型——Llama-3.2-1B模型,并施加了INT4量化(Q4_K_M),以最大限度地减少资源占用。
640?wx_fmt=png&from=appmsg&watermark=1#imgIndex=14
  • 延迟与吞吐量:GH200平台的中位延迟(~1.09秒)远低于M2平台(~1.84秒),这意味着GH200的吞吐量(~0.92 请求/秒)显著高于M2(~0.54 请求/秒)。这一差距凸显了在要求高并发和低延迟的实时网络控制场景中,高端数据中心加速器的不可替代性。
  • 有效性(协议合规性):一个关键的发现是,两个平台在生成消息的质量上几乎不分伯仲。模式检查(Schema chk)中位数(0.96 vs 0.97)和上行-下行状态机一致性(SMC conf.)通过率(0.53 vs 0.54)都高度接近。这表明,边缘设备虽然速度较慢,但其生成的RRC消息在标准符合性上与数据中心服务器相当。
  • 能耗分析:论文基于平台功率上限进行了保守的能耗估算。M2 Max的每消息能耗约为7.7毫瓦时(mWh),而GH200的每消息能耗约为0.200瓦时(Wh),即200毫瓦时。这意味着在单位决策能耗上,边缘设备(M2)的能效比数据中心加速器(GH200)高出约一个数量级。

所以对于低延迟或高持续吞吐量的实时网络控制平面,数据中心级硬件是必然选择。

▍局限性与未来展望
(1) 局限性:
  • 当前推理延迟(>1 s)远高于实时要求(<100 ms);
  • 依赖高性能 GPU;
  • 缺乏实际网络部署验证;
  • 评估指标以文本相似度为主,未覆盖协议层行为。

(2)未来工作方向:
  • 加速推理:探索多令牌推测解码(speculative decoding)与层次化模型;
  • 扩展上下文:引入记忆增强(memory-augmented)Transformer;
  • 动态模式检索:自适应更新以支持新 3GPP 版本;
  • 新指标体系:开发面向 RRC 协议语义的特定评估标准。


▍结语
这项研究首次证明: 大语言模型可以在保持 3GPP 语法和状态一致性的前提下,直接生成控制面信令。虽然距离实时部署仍有差距,但是未来网络控制有可能从“程序员手工编程”迈向“智能时代” - 就像人类学语言一样,AI通过“阅读”RRC对话,学会了生成符合3GPP标准的信令。 (就问做RRC的人怕不怕 ,应该不用担心,达到电信级部署还有很长路要走)。

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2025-11-14 23:00 , Processed in 0.227239 second(s), 19 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部