基于 MicroK8s 和 Ubuntu 实时内核支持的 Intel FlexRAN 组件自动扩展
by Canonical on 19 March 2024
RAN 随着每一代移动通信技术的发展而不断演变,从而在用户设备和核心网络之间实现更快的数据传输。内部互连设备数量的增多使得数据量比以往任何时候都要多。至于现有的网络架构,其挑战在于处理不断增加的工作负载,以及更快地处理、分析和传输数据的能力。而对于 5G 生态系统,则需要实现 RAN 的虚拟化。第五代移动网络需要具备更大的灵活性以适应需求,具备可扩展性以满足运行时的网络条件,以及需要自动化以进行远程管理,而这些只能通过虚拟 RAN 来实现。
Intel FlexRAN 解决了传统 RAN 架构所面临的挑战。它能够从核心网络功能中将底层硬件抽象化,以实现最佳的资源利用。FlexRAN 是 O-RAN (OpenRAN) 的改进和参考实现,具有在不同供应商设备之间进行互操作的灵活性。对 EPA(增强平台意识)功能的支持使 Intel FlexRAN 能够在 Linux 发行版上最佳运行。Canonical 的 Ubuntu 实时内核支持与 Intel 的 FlexRAN 相辅相成,使电信公司和移动运营商能够根据需要扩展资源,并且可以节省成本。点击此处观看内容更加详尽的网络研讨会。
Canonical 针对 Intel FlexRAN 的实时内核
Canonical 正在针对电信工作负载提供优化、安全和高效的服务器映像,并通过在 Ubuntu 22.04 LTS 中提供实时内核支持功能来实现对 5G 技术的采用。实时内核可以让网络敏感型工作负载和安全功能拥有最佳性能和低延迟。其通过将内核固定到进程来实现线程调度。它将内核隔离并专用于主机和应用程序,从而实现资源的最佳利用。
Intel 联合 Canonical 推出了可扩展且可靠的 Intel FlexRAN RAN 参考实现软件,其中采用的是 Ubuntu 实时内核 和 Canonical 严格限制版 MicroK8s。严格限制是利用 Linux 内核的安全特性,包括 AppArmor、seccomp 和名称空间,来防止应用程序和服务访问更广泛的系统。FlexRAN 由控制平面和代理 API 构成。代理 API 将控制平面与数据平面分离,由此提供了一个经济高效且可靠的 RAN 环境。
演示:5G RAN 网络中 vDU 的实时自动扩展
Canonical 携手 Intel 实现了 5G RAN 组件(即 vDU)的自动扩展,并在 2022 年拉斯维加斯 MWC 大会上进行了演示。测试系统由 Canonical 的 MicroK8s 集群组成,其中配备了 Ubuntu 实时内核、Intel FlexRAN 和 Intel 加速器。
在这次演示中,RAN 组件部署在 Canonical MicroK8s 集群的微服务架构中。此处的示例为体育场真实场景,且该体育场对自动扩展资源具有较高的带宽需求。正常情况下,5G 可以满足文件传输、消息、一般通信等请求。使用有保证的 SLA 可以确保合理的带宽利用。相反,在大规模情况下,5G 需要满足虚拟现实 (VR)、直播、在线共享、高质量流媒体等需要更高带宽的应用请求。
下图所示为针对 FlexRAN 组件如何基于配备实时内核的 Ubuntu 进行运行所提出的高级架构。Trex 流量生成器部署在一个 MicroK8s 集群中,Intel FlexRAN 部署在另一个 MicroK8s 集群中,而 RAN Intelligent Controller 部署在一个本地 Kubernetes 集群中。Intel FlexRAN 的微服务治理通过 O1 代理持续收集 vDU 遥测指标,从而确保 SLA 在高并发和动态工作负载下具有 AI 功能。
DU 功能块包括两个微服务:其一是 DU CP,其二是 DU UP。与传统部署模型相比,微服务能够灵活地扩展 DU。在下图中,部署了三个网络分片用于托管两个 UE,每个 UE 具有不同的调度优先级。分片 1 – GBR0,具有较高优先级;分片 2 – GBR1,具有中等优先级;分片 3 – 后台 UE,具有最低优先级。流量生成器用于将流量增加到一定阈值。
DU-UP 通过 O1 代理向 RIC 报告单元利用率指标。RIC 是一种软件定义组件,使用 AI/ML 功能提供高级的控制功能和高效的无线电资源管理。当网络负载增加到阈值以上时,SMO 将向 Intel FlexRAN 微服务治理中心发送信号,以横向扩展 vDU。因此,分片 1 被迁移到新部署的 DU-UP 中心,以确保 SLA 和 QoS,且当网络负载减少时删除 Cell # 2。与此同时,记录指标的运行时监控数据以确保根据交通状况做出智能决策。
观看 Intel 和 Canonical 合作的网络研讨会深入了解
订阅博客文章
查看更多内容
Canonical x Lenovo: 在边缘运行 AI workloads
携手 Canonical 和 Lenovo,在边缘运行 AI 工作负载 从制造业中的预测性维护,到医疗保健行业中的虚拟助手,再到最偏远地区的电信路由器优化,AI 正在各种边缘环境中掀起新浪潮,带来新机遇。但为了支持这些几乎随处运行的 AI 工作负载,公司需要具备快速、安全且高度可扩展的边缘基础架构。 开源工具 —— 例如用于轻量级 Kubernetes 编排的 MicroK8s 和用于 ML 机器学习工作流的 Charmed Kubeflow —— 可以为边缘 AI 部署提供更高的灵活性和安全性。如果配合加速计算堆栈使用,这些解决方案可以帮助专业人员更快地交付项目,降低运营成本,以及确保更可预测的结果。 今天这篇博客探讨为什么企业正逐渐在边缘 AI 领域转向开放式基础架构 […]
由 MediaTek Genio 1200 驱动的新型单板计算机 Advantech RSB-3810,现已通过 Ubuntu 22.04 LTS 认证
探索此款专为物联网和边缘应用设计的全新硬件解决方案 2023 年,Canonical 与 MediaTek 为实现物联网创新,合作优化 Ubuntu 并宣布推出针对 MediaTek 的 Genio 1200 片上系统(SoC)优化的首批 Ubuntu 镜像。该解决方案旨在实现不同市场的 AI 创新。基于 MediaTek Genio 平台和认证版 Ubuntu 构建的设备享有可靠高效的无线更新,从而实现下一代安全、开放且可扩展的物联网设备。 今天,MediaTek 和 Canonical 很高兴地宣布,行业领先的嵌入式 AI 解决方案提供商 Advantech 已成功发布 RSB-3810 2.5” Pico-ITX ——第一款运行于 MediaTek Genio 12 […]
在微软 Azure 上使用 Ubuntu 机密虚拟机和 Nvidia H100 GPU 的 Confidential AI 集成预览
使用 Azure 上的 Ubuntu 机密 AI,企业可以放心地承担各种任务,包括 ML 训练、推断、多方机密数据分析和联合学习。 AI 模型的有效性在很大程度上取决于能否访问大量高质量的数据。虽然可以使用公开可用的数据集,但对于医疗诊断或财务风险评估等任务,我们需要在训练和推断过程中访问私人数据。 在云中执行机器学习任务时,企业担心其敏感数据隐私和模型相关知识产权可能受到损害,这是可以理解的。此外,严格的行业法规通常禁止共享此类数据。这使得利用大量有价值的私人数据变得困难,甚至完全不可能,从而限制了 AI 在重要领域的真正潜力。 机密 AI 可以直接解决这一问题,提供了一个跨越 CPU 和 GPU 的基于硬件的执行环境。该环境可以帮助保护 AI 数据和代码免遭特权系统 […]