論文の概要: Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective
- arxiv url: http://arxiv.org/abs/2105.01696v1
- Date: Mon, 3 May 2021 07:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:36:28.275630
- Title: Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective
- Title(参考訳): 動的環境における無線リソースの連続最適化の学習:双方向最適化の視点から
- Authors: Haoran Sun, Wenqiang Pu, Xiao Fu, Tsung-Hui Chang, Mingyi Hong
- Abstract要約: この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
- 参考スコア(独自算出の注目度): 52.497514255040514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a growing interest in developing data-driven, and in
particular deep neural network (DNN) based methods for modern communication
tasks. For a few popular tasks such as power control, beamforming, and MIMO
detection, these methods achieve state-of-the-art performance while requiring
less computational efforts, less resources for acquiring channel state
information (CSI), etc. However, it is often challenging for these approaches
to learn in a dynamic environment.
This work develops a new approach that enables data-driven methods to
continuously learn and optimize resource allocation strategies in a dynamic
environment. Specifically, we consider an ``episodically dynamic" setting where
the environment statistics change in ``episodes", and in each episode the
environment is stationary. We propose to build the notion of continual learning
(CL) into wireless system design, so that the learning model can incrementally
adapt to the new episodes, {\it without forgetting} knowledge learned from the
previous episodes. Our design is based on a novel bilevel optimization
formulation which ensures certain ``fairness" across different data samples. We
demonstrate the effectiveness of the CL approach by integrating it with two
popular DNN based models for power control and beamforming, respectively, and
testing using both synthetic and ray-tracing based data sets. These numerical
results show that the proposed CL approach is not only able to adapt to the new
scenarios quickly and seamlessly, but importantly, it also maintains high
performance over the previously encountered scenarios as well.
- Abstract(参考訳): データ駆動、特に、現代のコミュニケーションタスクのためのディープニューラルネットワーク(DNN)ベースの手法の開発に対する関心が高まっている。
電力制御、ビームフォーミング、MIMO検出などの一般的なタスクでは、これらの手法は、計算労力の削減、チャネル状態情報(CSI)取得のためのリソースの削減など、最先端のパフォーマンスを達成する。
しかし、これらのアプローチが動的な環境で学ぶことはしばしば困難である。
本研究は,データ駆動型手法による動的環境における資源配分戦略の継続的な学習と最適化を可能にする新しい手法を開発する。
具体的には、環境統計が`episodes" で変化する ``episodically dynamic' の設定を検討し、各エピソードで環境が静止する。
本研究では,連続学習(cl)の概念を無線システム設計に構築し,学習モデルが前回から学んだ知識を忘れることなく,新たなエピソードに漸進的に適応できるようにする。
我々の設計は、2レベル最適化の新たな定式化に基づいており、異なるデータサンプル間での「公平性」を保証する。
電力制御とビームフォーミングの2つの一般的なDNNモデルと統合してCL手法の有効性を実証し,合成データとレイトレーシングデータの両方を用いて実験を行った。
これらの数値結果から、提案したCLアプローチは、新しいシナリオを迅速かつシームレスに適応できるだけでなく、これまで遭遇したシナリオよりも高いパフォーマンスを維持していることがわかる。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Context-Aware Orchestration of Energy-Efficient Gossip Learning Schemes [8.382766344930157]
本稿では,Gossip Learningと学習プロセスの適応最適化を組み合わせた分散学習手法を提案する。
本稿では,ノードごとのリアルタイムな最適化に依存するデータ駆動型OGL管理手法を提案する。
その結果,提案手法は幅広いネットワークシナリオにおいて極めて効率的かつ効果的であることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T09:17:46Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Double Meta-Learning for Data Efficient Policy Optimization in
Non-Stationary Environments [12.45281856559346]
我々は、マルチタスク学習問題とみなすことができる非定常環境の学習モデルに興味を持っている。
モデルなし強化学習アルゴリズムは、広範囲なサンプリングを犠牲にしてマルチタスク学習において優れた性能を達成することができる。
モデルベースのアプローチは最もデータ効率のよい学習アルゴリズムの1つだが、それでも複雑なタスクやモデルの不確実性に苦慮している。
論文 参考訳(メタデータ) (2020-11-21T03:19:35Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Trajectory-wise Multiple Choice Learning for Dynamics Generalization in
Reinforcement Learning [137.39196753245105]
本稿では,動的一般化のためのマルチヘッドダイナミックスモデルを学習するモデルベース強化学習アルゴリズムを提案する。
文脈学習は,過去の経験から得られる動的情報からコンテキスト潜在ベクトルにエンコードする。
提案手法は,最先端のRL法と比較して,様々な制御タスクにおいて優れたゼロショット一般化性能を示す。
論文 参考訳(メタデータ) (2020-10-26T03:20:42Z) - Instance Weighted Incremental Evolution Strategies for Reinforcement
Learning in Dynamic Environments [11.076005074172516]
本研究では,動的環境における進化戦略(ES)の体系的漸進学習手法を提案する。
目標は、環境が変わるたびに、学習済みのポリシーを新しいポリシーに漸進的に調整することだ。
本稿では、動的環境への高速な学習適応を実現するため、RLドメインのためのスケーラブルなESアルゴリズムのファミリーを紹介する。
論文 参考訳(メタデータ) (2020-10-09T14:31:44Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。