論文の概要: Offline Contextual Bandits for Wireless Network Optimization
- arxiv url: http://arxiv.org/abs/2111.08587v1
- Date: Thu, 11 Nov 2021 11:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 15:17:01.043832
- Title: Offline Contextual Bandits for Wireless Network Optimization
- Title(参考訳): 無線ネットワーク最適化のためのオフラインコンテキスト帯域
- Authors: Miguel Suau, Alexandros Agapitos, David Lynch, Derek Farrell, Mingqi
Zhou, Aleksandar Milenovic
- Abstract要約: 本稿では,ユーザ要求の変化に応じて,ネットワーク内の各セルの構成パラメータを自動的に調整するポリシの学習方法について検討する。
私たちのソリューションは、オフライン学習のための既存の方法を組み合わせて、この文脈で生じる重要な課題を克服する原則的な方法でそれらを適応します。
- 参考スコア(独自算出の注目度): 107.24086150482843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The explosion in mobile data traffic together with the ever-increasing
expectations for higher quality of service call for the development of AI
algorithms for wireless network optimization. In this paper, we investigate how
to learn policies that can automatically adjust the configuration parameters of
every cell in the network in response to the changes in the user demand. Our
solution combines existent methods for offline learning and adapts them in a
principled way to overcome crucial challenges arising in this context.
Empirical results suggest that our proposed method will achieve important
performance gains when deployed in the real network while satisfying practical
constrains on computational efficiency.
- Abstract(参考訳): モバイルデータトラフィックの急増と、無線ネットワーク最適化のためのAIアルゴリズムの開発に対する、より高い品質のサービスコールに対する期待が高まっている。
本稿では,ユーザ要求の変化に応じて,ネットワーク内の各セルの構成パラメータを自動的に調整するポリシの学習方法について検討する。
私たちのソリューションは、オフライン学習のための既存の方法を組み合わせて、この文脈で生じる重要な課題を克服する原則的な方法でそれらを適応します。
実験結果から,提案手法は実ネットワークにデプロイした場合,計算効率の制約を十分に満たしながら,重要な性能向上を達成できることが示唆された。
関連論文リスト
- DRL Optimization Trajectory Generation via Wireless Network Intent-Guided Diffusion Models for Optimizing Resource Allocation [58.62766376631344]
本稿では、無線通信ネットワークの異なる状態変化に対応するために、カスタマイズされた無線ネットワークインテント(WNI-G)モデルを提案する。
大規模シミュレーションにより、動的通信システムにおけるスペクトル効率と従来のDRLモデルの変動の安定性が向上する。
論文 参考訳(メタデータ) (2024-10-18T14:04:38Z) - Continual Model-based Reinforcement Learning for Data Efficient Wireless Network Optimisation [73.04087903322237]
制御ポリシの継続強化学習としてスループット最適化を定式化する。
シミュレーションの結果,提案システムでは,エンド・ツー・エンドのデプロイメントのリードタイムを2倍に短縮できることがわかった。
論文 参考訳(メタデータ) (2024-04-30T11:23:31Z) - Multi-Agent Reinforcement Learning for Power Control in Wireless
Networks via Adaptive Graphs [1.1861167902268832]
多エージェント深部強化学習(MADRL)は、電力制御のような幅広い複雑な最適化問題に対処するための有望な手法として登場した。
本稿では,これらの課題を緩和する有効な手段として,分散エージェント間の通信誘導構造としてグラフを用いることを提案する。
論文 参考訳(メタデータ) (2023-11-27T14:25:40Z) - Learning to Transmit with Provable Guarantees in Wireless Federated
Learning [40.11488246920875]
干渉制限無線ネットワーク上でのフェデレーション学習(FL)に送信電力を割り当てる新しいデータ駆動方式を提案する。
提案手法は、FLトレーニングプロセス中に無線チャネルが変化している場合の課題に有用である。
最終的な目標は、訓練中のグローバルFLモデルの精度と効率を改善することです。
論文 参考訳(メタデータ) (2023-04-18T22:28:03Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - Neighbor Auto-Grouping Graph Neural Networks for Handover Parameter
Configuration in Cellular Network [47.29123145759976]
ハンドオーバパラメータ設定のための学習ベースのフレームワークを提案する。
まず、ネットワークが異なるネットワーク状態とパラメータ値にどのように反応するかを模倣する新しいアプローチを提案する。
パラメータ設定の段階では、グローバルな最適化問題を解決する代わりに、局所的な多目的最適化戦略を設計する。
論文 参考訳(メタデータ) (2022-12-29T18:51:36Z) - Phase Shift Design in RIS Empowered Wireless Networks: From Optimization
to AI-Based Methods [83.98961686408171]
再構成可能なインテリジェントサーフェス(RIS)は、無線ネットワークのための無線伝搬環境をカスタマイズする革命的な機能を持つ。
無線システムにおけるRISの利点を完全に活用するには、反射素子の位相を従来の通信資源と共同で設計する必要がある。
本稿では、RISが課す制約を扱うための現在の最適化手法と人工知能に基づく手法についてレビューする。
論文 参考訳(メタデータ) (2022-04-28T09:26:14Z) - Cellular traffic offloading via Opportunistic Networking with
Reinforcement Learning [0.5758073912084364]
本稿では,Reinforcement Learningフレームワークに基づく適応型オフロードソリューションを提案する。
Actor-Critic と Q-Learning の2つのよく知られた学習アルゴリズムの性能を評価し比較する。
我々のソリューションは、他の最先端のアプローチよりも高いレベルのオフロードを実現する。
論文 参考訳(メタデータ) (2021-10-01T13:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。