論文の概要: Inter-Cell Network Slicing With Transfer Learning Empowered Multi-Agent
Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2306.11552v1
- Date: Tue, 20 Jun 2023 14:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 14:05:33.057820
- Title: Inter-Cell Network Slicing With Transfer Learning Empowered Multi-Agent
Deep Reinforcement Learning
- Title(参考訳): トランスファー・ラーニングによる細胞間ネットワークスライシングによるマルチエージェント深層強化学習
- Authors: Tianlun Hu, Qi Liao, Qiang Liu, and Georg Carle
- Abstract要約: ネットワークスライシングにより、オペレータは共通の物理インフラ上で多様なアプリケーションを効率的にサポートできる。
ネットワーク展開の恒常的に増大する密度化は、複雑で非自明な細胞間干渉を引き起こす。
複数の深層強化学習(DRL)エージェントを用いたDIRPアルゴリズムを開発し,各セルの資源分配を協調的に最適化する。
- 参考スコア(独自算出の注目度): 6.523367518762879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network slicing enables operators to efficiently support diverse applications
on a common physical infrastructure. The ever-increasing densification of
network deployment leads to complex and non-trivial inter-cell interference,
which requires more than inaccurate analytic models to dynamically optimize
resource management for network slices. In this paper, we develop a DIRP
algorithm with multiple deep reinforcement learning (DRL) agents to
cooperatively optimize resource partition in individual cells to fulfill the
requirements of each slice, based on two alternative reward functions.
Nevertheless, existing DRL approaches usually tie the pretrained model
parameters to specific network environments with poor transferability, which
raises practical deployment concerns in large-scale mobile networks. Hence, we
design a novel transfer learning-aided DIRP (TL-DIRP) algorithm to ease the
transfer of DIRP agents across different network environments in terms of
sample efficiency, model reproducibility, and algorithm scalability. The
TL-DIRP algorithm first centrally trains a generalized model and then transfers
the "generalist" to each local agent as "specialist" with distributed
finetuning and execution. TL-DIRP consists of two steps: 1) centralized
training of a generalized distributed model, 2) transferring the "generalist"
to each "specialist" with distributed finetuning and execution. The numerical
results show that not only DIRP outperforms existing baseline approaches in
terms of faster convergence and higher reward, but more importantly, TL-DIRP
significantly improves the service performance, with reduced exploration cost,
accelerated convergence rate, and enhanced model reproducibility. As compared
to a traffic-aware baseline, TL-DIRP provides about 15% less violation ratio of
the quality of service (QoS) for the worst slice service and 8.8% less
violation on the average service QoS.
- Abstract(参考訳): ネットワークスライシングにより、オペレータは共通の物理インフラ上で多様なアプリケーションを効率的にサポートできる。
ネットワーク展開の増大は複雑で非自明なセル間干渉を引き起こし、ネットワークスライスのためのリソース管理を動的に最適化するためには、不正確な分析モデル以上のものが必要になる。
本稿では,複数の深層学習(DRL)エージェントを用いたDIRPアルゴリズムを開発し,各スライス要求を満たすために,各セルの資源分配を協調的に最適化する。
それにもかかわらず、既存のDRLアプローチは、訓練済みのモデルパラメータを特定のネットワーク環境に低転送性で結びつけるのが一般的である。
そこで我々は, サンプル効率, モデル再現性, アルゴリズムスケーラビリティの観点から, 異なるネットワーク環境におけるDIRPエージェントの転送を容易にするために, トランスファー学習支援型DIRP (TL-DIRP) アルゴリズムを設計した。
TL-DIRPアルゴリズムはまず、一般化されたモデルを集中的に訓練し、各ローカルエージェントに分散微調整と実行を伴う「スペシャリスト」として「ジェネラリスト」を転送する。
tl-dirpは2つのステップからなる。
1)一般化分散モデルの集中的なトレーニング。
2)分散微調整と実行で「ジェネラリスト」を各「専門家」に転送する。
さらに, tl-dirpは探索コストの低減, 収束速度の高速化, モデルの再現性の向上などにより, サービス性能を大幅に向上させた。
トラフィック対応ベースラインと比較して、TL-DIRPは、最悪のスライスサービスにおけるサービス品質(QoS)の違反率を15%削減し、平均サービスQoSに対して8.8%低減する。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - How Does Forecasting Affect the Convergence of DRL Techniques in O-RAN
Slicing? [20.344810727033327]
本稿では,DRLの収束性を高めるため,新しい予測支援型DRL手法とそのO-RAN実運用ワークフローを提案する。
提案手法では, 平均初期報酬値, 収束率, 収束シナリオ数において最大22.8%, 86.3%, 300%の改善が見られた。
論文 参考訳(メタデータ) (2023-09-01T14:30:04Z) - Multi Agent DeepRL based Joint Power and Subchannel Allocation in IAB
networks [0.0]
統合アクセスとバックハウリング(IRL)は、将来の世代におけるより高いデータレートに対する前例のない要求を満たすための、実行可能なアプローチである。
本稿では,分数ノードに付随する巨大なアクション空間の問題を,Deep Q-Learning Networkを用いて処理する方法を示す。
論文 参考訳(メタデータ) (2023-08-31T21:30:25Z) - Multi-Agent Reinforcement Learning for Network Routing in Integrated
Access Backhaul Networks [0.0]
IABネットワークの遅延を最小化しながらパケット到着率を最大化することを目的としている。
この問題を解決するため、我々はマルチエージェントで部分的に観察されたマルコフ決定プロセス(POMD)を開発した。
A2Cは他の強化学習アルゴリズムよりも優れており、ネットワーク効率が向上し、利己的エージェントの挙動が低下することを示した。
論文 参考訳(メタデータ) (2023-05-12T13:03:26Z) - A Multi-objective Complex Network Pruning Framework Based on
Divide-and-conquer and Global Performance Impairment Ranking [40.59001171151929]
本稿では,多目的複合ネットワークプルーニングフレームワークを提案する。
提案アルゴリズムは,最先端プルーニング手法と同等の性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T12:05:15Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - The Gradient Convergence Bound of Federated Multi-Agent Reinforcement
Learning with Efficient Communication [20.891460617583302]
連立学習パラダイムにおける協調的意思決定のための独立強化学習(IRL)の検討
FLはエージェントとリモート中央サーバ間の過剰な通信オーバーヘッドを生成する。
本稿では,システムの実用性向上のための2つの高度な最適化手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T07:21:43Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。