論文の概要: Knowledge Transfer in Deep Reinforcement Learning for Slice-Aware
Mobility Robustness Optimization
- arxiv url: http://arxiv.org/abs/2203.03227v1
- Date: Mon, 7 Mar 2022 09:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 15:16:51.517308
- Title: Knowledge Transfer in Deep Reinforcement Learning for Slice-Aware
Mobility Robustness Optimization
- Title(参考訳): スライスアウェアモビリティロバストネス最適化のための深層強化学習における知識伝達
- Authors: Qi Liao and Tianlun Hu and Dan Wellington
- Abstract要約: 深い強化学習に基づくスライス・アウェア・モビリティ・ロバストネス最適化(SAMRO)手法を提案する。
スライス固有のハンドオーバパラメータを最適化することで、スライス毎のサービス保証によるハンドオーバパフォーマンスを向上させる。
1) オフライン強化学習の正規化,2) 複合体験リプレイによる効果的なオンライン微調整。
- 参考スコア(独自算出の注目度): 0.8937905773981699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The legacy mobility robustness optimization (MRO) in self-organizing networks
aims at improving handover performance by optimizing cell-specific handover
parameters. However, such solutions cannot satisfy the needs of next-generation
network with network slicing, because it only guarantees the received signal
strength but not the per-slice service quality. To provide the truly seamless
mobility service, we propose a deep reinforcement learning-based slice-aware
mobility robustness optimization (SAMRO) approach, which improves handover
performance with per-slice service assurance by optimizing slice-specific
handover parameters. Moreover, to allow safe and sample efficient online
training, we develop a two-step transfer learning scheme: 1) regularized
offline reinforcement learning, and 2) effective online fine-tuning with mixed
experience replay. System-level simulations show that compared against the
legacy MRO algorithms, SAMRO significantly improves slice-aware service
continuation while optimizing the handover performance.
- Abstract(参考訳): 自己組織化ネットワークにおけるレガシーモビリティロバストネス最適化(MRO)は,セル固有のハンドオーバパラメータを最適化してハンドオーバ性能を向上させることを目的としている。
しかし,ネットワークスライシングによる次世代ネットワークの必要性は,受信信号の強度が保証されるだけでなく,スライス毎のサービス品質が保証されないため,そのようなソリューションでは満足できない。
真のシームレスモビリティサービスを提供するため,我々は,スライス特有のハンドオーバパラメータを最適化することで,スライス毎のサービス保証によるハンドオーバ性能を向上させる,深層強化学習に基づくスライスアウェアモビリティロバストネス最適化(samro)手法を提案する。
さらに,効率的なオンライン学習を実現するために,2段階の転校学習方式を開発した。
1)正則なオフライン強化学習、及び
2) 複合体験リプレイによる効果的なオンラインファインチューニング。
システムレベルのシミュレーションでは、従来のMROアルゴリズムと比較すると、SAMROはハンドオーバ性能を最適化しながらスライス対応サービスの継続性を著しく改善する。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Slicing for AI: An Online Learning Framework for Network Slicing Supporting AI Services [5.80147190706865]
6Gネットワークは、革新的なネットワークスライシング戦略を必要とするAI駆動サービスの新たな領域を受け入れる。
本稿では,AIサービスへの計算・通信資源の割り当てを最適化するオンライン学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-20T14:38:54Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - Predictive Handover Strategy in 6G and Beyond: A Deep and Transfer Learning Approach [11.44410301488549]
本稿では,将来的なサービスセル予測のためのディープラーニングに基づくアルゴリズムを提案する。
我々のフレームワークはO-RAN仕様に準拠しており、Near-Real-Time RAN Intelligent Controllerにデプロイできます。
論文 参考訳(メタデータ) (2024-04-11T20:30:36Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Offline Contextual Bandits for Wireless Network Optimization [107.24086150482843]
本稿では,ユーザ要求の変化に応じて,ネットワーク内の各セルの構成パラメータを自動的に調整するポリシの学習方法について検討する。
私たちのソリューションは、オフライン学習のための既存の方法を組み合わせて、この文脈で生じる重要な課題を克服する原則的な方法でそれらを適応します。
論文 参考訳(メタデータ) (2021-11-11T11:31:20Z) - Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks [4.010371060637208]
さまざまなタイプのサービスの要求におけるトラフィックモビリティパターンとダイナミックスの複雑さは、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,エッジサーバに最適なサービス配置を見つけるために,強化学習に基づく動的(RL-Dynamic)サービス配置フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T15:01:35Z) - Remote Electrical Tilt Optimization via Safe Reinforcement Learning [1.2599533416395765]
リモート電気ティルト(RET)最適化は、ネットワークのキーパフォーマンス指標(KPI)を最適化するために、基地局(BS)アンテナの垂直傾き角を調整する効率的な方法である。
本研究では、傾き制御戦略の学習を目的とした安全強化学習(SRL)フレームワークにおけるRET最適化問題をモデル化する。
実験の結果,提案手法は安全で改良された傾き更新ポリシーを学習でき,信頼性が高く,現実のネットワーク展開の可能性も高いことがわかった。
論文 参考訳(メタデータ) (2020-10-12T16:46:40Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。