Nephio 驅動 5G 專網的智慧化 orchestration:從多廠商整合到雲原生自動化的未來展望
Nephio 驅動 5G 專網的智慧化 Orchestration
引言
2025 年即將到來!同時,行動通訊技術的演進也從未暫緩,目前正高速朝 6G 的技術演進中。除此之外,隨著政府大力推動數位轉型(我國也開放了 Band n79 供 5G 專網使用),現如今 5G 專用網路(Private 5G),逐漸成為企業、營運商與 MSP(Managed Service Provider),甚至是文創場域所關注的焦點。傳統電信網路的部署若採用單一供應商模式,往往缺乏彈性與成本優勢;而多供應商環境(Multi-vendor)雖帶來技術與功能上的多樣化,卻同時伴隨著 orchestration 與 management 上的挑戰。面對這些問題,業界正積極尋求一個能夠統一自動化管理與編排解決方案,讓網管人員能在單一管理平台下高效掌握整個 5G 專網生態系。
因此,本文將介紹 Linux Foundation Networking(LFN)旗下的重要專案 Nephio,並探討如何利用 Kubernetes、GitOps、Intent-based(意圖驅動)等雲原生技術,達成跨供應商、多集群、多元應用(包括網路功能與邊緣應用)的自動化部署、管理與維運。我們將結合技術背景、實務案例與生態系趨勢,讓從事 5G/6G 學研人員或電信產業工程師能夠「深入淺出」理解 5G 專網的未來運營方式。
一、5G 專網編排與管理的挑戰
在 5G 專網的網路設計中,我們必須同時面對多家供應商的軟硬體組件,包括:
- 異質性網路功能 (Heterogeneous NFs):如 RAN(無線接取網路)、5G Core、邊緣運算平台、防火牆、CPE(用戶端終端設備)甚至是特定的邊緣應用(如電腦視覺、VR/AR 裝置管理)。
- 多層次網路結構:從核心雲端(Core Cloud)到區域資料中心(Regional Site),再延伸至邊緣端(Edge Site),每個層次都可能來自不同廠商、不同 Kubernetes cluster 或不同類型的底層基礎設施(實體伺服器、虛擬機、Bare Metal即服務、雲端虛擬機)。
- 多重管理系統:各廠商經常都會使用自家的 EMS(Element Management System)與 GUI,但對營運管理者來說,維護多個獨立介面既費時也不直觀。企業或 MSP 需要的是整合性單一管理介面 (Single Pane of Glass) 與統一管理方案,以便快速配置、監控、變更與優化整個網路環境。
在這樣的背景下,如果單純依賴傳統的 Telco MANO(Management and Orchestration)系統或單靠 Kubernetes 基本功能,都會有各自的不足。前者對企業端使用者而言過於複雜,缺乏雲原生靈活性;後者雖有彈性,但在大規模、多供應商的網路環境中缺少 GitOps 級別的版本控制、策略強制(Policy Enforcement)與閉環(Closed-loop)自動化管控能力。
二、Nephio 與 LFN 生態系:雲原生、多供應商、自動化的解方
面對上面的種種挑戰,Nephio 作為 Linux Foundation Networking 下的關鍵專案,提供了創新的概念:
- Kubernetes-based(將 Kubernetes 做為根本):
Nephio 將 5G 專網的編排和管理,視為 Kubernetes 平台上原生運行的 workload 的一部分或自然延伸。將傳統網路功能 (NF) 與 Application(如:邊緣運算)以雲原生方式封裝(變成 CNF),並透過 K8s 的 CRD(Custom Resource Definitions)將現實世界的 Business logic 業務需求(可以把它想成是一種意圖)轉換成實際網路配置。如此一來,NF configuration 就不再需要出動大量人力,並且手動費時的去一一設定,而是透過宣告式配置(Declarative Configuration)自動將 config 推送到目標 cluster。 - Intent-driven 與 GitOps:
延續上面所述,透過 Intent-based 模型,營運者只需定義 High level 的業務需求(例如:地點、Latency 的需求、是否具備邊緣應用),Nephio 便能透過一系列 KPT Functions 與 Controllers,自動將高階意圖轉換為底層技術參數(如:RAN、Core 功能的特定 Configration)。同時,所有的配置變更都會透過 GitOps 流程來進行管理;當業務需求的 Intent 改變時,系統自動偵測這些改變,並根據這些(新的意圖)的改變來更新相應的參數。接下來,運行在邊緣站點(edge site)的 Config Sync,就會進一步從 repository 中拉取(pull)配置,並將這些配置應用到 edge site,實現「所見即所宣告」,達成 NF automation 以及可追溯的配置 Lifecycle management。這邊 workflow 看不懂先別急著查,下面有補充實現這些流程的組件和工具
- 多叢集、跨供應商支援:
Nephio 的應用不僅僅侷限於單一場域。Nephio 支援 Multi-cluster 與 multivendor,可以實現在 Nephio Central Cloud 放置 5GC 控制平面的網元(如:AMF、SMF),將 RAN 部署在 regional 或 edge cluster,並可再進一步依據需求將 UPF 往前移至邊緣端(可選擇部分放置於核心雲端,也可以移至邊緣),以滿足更嚴苛的延遲要求。這種彈性拓撲的組合完全建立在「changing intent」的基礎上,而非需要人工到實地進行繁瑣的作業。 - Closed-loop Automation與政策管控:
Nephio 可結合 CNCF OPA(Open Policy Agent),實現閉環管控。系統可根據監控資料(例如:Kafka、Grafana 等資料收集與視覺化平台),自動觸發策略檢驗,若網路狀態不符預期,OPA 將驅動 Nephio 進行配置調整(Lifecycle Management Action),實現真正的「Zero touch」的動態優化。 - 整合 A&AI Inventory 與多重介面:
來自 ONAP 的 A&AI(Active and Available Inventory)專案可提供資產與狀態的集中式存檔,加上 REST API、Python SDK、及自訂的 GUI 介面,讓網管人員不必在多個監控面板間來回切換。透過單一管理介面即可存取所有網路資源、功能與應用,達成真正的 Single Pane of Glass。
三、Nephio 架構解析:從高階 Intent 到技術細節的轉化流程
Kubernetes as a Uniform Automation Control Plane |
- 基礎設施編排 (Infra Orchestration):不論是雲端 VM、Bare Metal 還是區域伺服器,Nephio 透過供應商或 API(如:Redfish)直接介入資源調度,以滿足網路功能的底層需求。基礎設施在被 Nephio 接管後,即成為受控資產,能夠自動因應上層 Intent 做出調配。
- 工作負載編排 (Workload Orchestration):5G 專網不只部署網路功能,同時也需搭配邊緣應用。Nephio 可將 RAN、Core,以及任意雲原生應用(如邊緣電腦視覺)以 CRD 表達,並利用控制器自動將高階 Intent 轉為具體參數,分派至正確的叢集。
- 配置管理 (Configuration Management):Day-0(初始部署)、Day-1(基本上線後調校)、Day-2(持續維運優化)的所有配置變更,皆透過 Nephio 的 Pipeline 與 GitOps 流程持續調和(Reconciliation)。這意味著當網路狀態發生偏移(drift),Nephio 能自動檢測並修正,確保網路狀態與定義的 Intent 同步。
- KPT (package):用來表達 intent 的 package,是一個以 package 為格式的 config unit,並由 Porch 進行管理。
- Porch:管理「封裝 intent 的 KPT function」並負責版本管理。
- KPT Functions 與 Operators:將 High intent 轉為可行的技術指令,包含 IPAM(IP 位址管理)等技術服務。
- Config Sync:運行在 edge cluster 端,從 Git Repo pull configration 下來並套用。
- Topology Controller、Package Variant Controller:分解網路拓撲意圖,將其解析成對應的特定功能組件配置。
這時候可能就有小朋友要問啦!
- 請問 GitOps 流程在哪裡?
將「業務意圖」轉化為「技術意圖」,並將其(Configuration)儲存在 repository 中,接下來 會由 controller 和 Config Sync 將 Config 部署到 Edge cluster,實現 Configuration 的自動化與一致性。 - 請問 Config Sync 是從哪個 repository pull Configuration 下來到 edge site 呢?而這個 repository 又位於哪裡呢?
每個 Edge site 或 Workload Cluster 都會有指定的 Git Repo,該 Repo 作為其 config file 的來源。以 Edge cluster (site) 為例:首先會需要在 Edge cluster 內部署 Config Sync conponent,接下來會需要再安裝並且設置 RootSync,RootSync 會在 Edge cluster 中建立一個資源,指定包含:Configuration 的 Git repo URL、branch 和 directory,一切設定好之後 Config Sync 就可以 access Git repo 啦。而這個 Repository 可以是外部的(例如:GitHub 或 GitLab),也可是在 Nephio 內部,例如在 Nephio management cluster 當中部署像是 Gitea 這樣的自架 Git 服務,來管理 configuration repositories。 - 有提到 將「業務意圖」轉化為「技術意圖」是透過 KPT 和 controller 來實現的,請問具體是如何實現的呢?|
使用者會需要在 Repository 當中透過創建 `PackageVariant` 和 `PackageVariantSet` resources,它們是來定義 Intent(包含:configurations, transformations)。這時 Nephio 架構當中一個重要的 component 就需要派上用場了!這個 component 叫做 package variant controller,package variant controller 會去監視這些資源,當檢測到 Intent 變更或是有新定義時,就會對其進行處理(例如:進行補充(hydrate)或修改(mutate)),讓意圖適應具體需求,然後將其放回 Repository,而 Config Sync 也會偵測 repo 是否發生變更(異動),若有的話 Config Sync 即會將新的 Config pull 到 edge cluster (site)。
四、實務案例:5G 專網雛形部署範例
五、展望與結論
關於作者:
聯絡資訊:
- hctsai@linux.com
- hctsai1006@cs.nctu.edu.tw
- https://www.facebook.com/thc1006
留言
張貼留言