論文の概要: Learning Power Control from a Fixed Batch of Data
- arxiv url: http://arxiv.org/abs/2008.02669v1
- Date: Wed, 5 Aug 2020 01:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 19:07:53.953456
- Title: Learning Power Control from a Fixed Batch of Data
- Title(参考訳): 固定バッチデータから電力制御を学習する
- Authors: Mohammad G. Khoshkholgh and Halim Yanikomeroglu
- Abstract要約: 監視環境から収集した電力制御データを用いて,未探索環境における電力制御を行う。
我々はオフラインの深層強化学習を採用し、エージェントはデータのみを用いて送信パワーを生産するポリシーを学習する。
- 参考スコア(独自算出の注目度): 28.618312473850974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address how to exploit power control data, gathered from a monitored
environment, for performing power control in an unexplored environment. We
adopt offline deep reinforcement learning, whereby the agent learns the policy
to produce the transmission powers solely by using the data. Experiments
demonstrate that despite discrepancies between the monitored and unexplored
environments, the agent successfully learns the power control very quickly,
even if the objective functions in the monitored and unexplored environments
are dissimilar. About one third of the collected data is sufficient to be of
high-quality and the rest can be from any sub-optimal algorithm.
- Abstract(参考訳): 本研究では,監視環境から収集した電力制御データを,未探索環境での電力制御に活用する方法を提案する。
我々はオフラインの深層強化学習を採用し、エージェントはデータのみを用いて送信パワーを生成するポリシーを学習する。
実験の結果, 監視環境と未探索環境の相違にもかかわらず, 監視環境と未探索環境の目的関数が相違する場合でも, エージェントは制御を迅速に学習することがわかった。
収集されたデータの約3分の1は高品質で、残りは任意の最適化アルゴリズムから得られる。
関連論文リスト
- DMC-VB: A Benchmark for Representation Learning for Control with Visual Distractors [13.700885996266457]
行動クローニングやオフライン強化学習(RL)を通じて収集されたデータから学習することは、ジェネラリストエージェントをスケールするための強力なレシピである。
オフラインRLエージェントの堅牢性を評価するため,DeepMind Control Visual Benchmark (DMC-VB) をDeepMind Control Suiteで収集した。
そこで,本研究では,事前学習のための表現学習手法を評価するための3つのベンチマークを提案し,最近提案したいくつかの手法の実験を行った。
論文 参考訳(メタデータ) (2024-09-26T23:07:01Z) - A Decentralized and Self-Adaptive Approach for Monitoring Volatile Edge Environments [40.96858640950632]
エッジのための分散自己適応監視システムであるDEMonを提案する。
提案システムは軽量でポータブルなコンテナベースシステムとして実装し,実験を通じて評価する。
その結果, エッジモニタリングの課題に対処するため, DEMonは効率的にモニタリング情報を拡散し, 回収することがわかった。
論文 参考訳(メタデータ) (2024-05-13T14:47:34Z) - CUDC: A Curiosity-Driven Unsupervised Data Collection Method with
Adaptive Temporal Distances for Offline Reinforcement Learning [62.58375643251612]
本稿では,Curiosity-driven Unsupervised Data Collection (CUDC)法を提案する。
この適応的な到達性機構により、特徴表現は多様化することができ、エージェントは、好奇心で高品質なデータを集めるために自分自身をナビゲートすることができる。
実験的に、CUDCはDeepMindコントロールスイートの様々なダウンストリームオフラインRLタスクにおいて、既存の教師なし手法よりも効率と学習性能が優れている。
論文 参考訳(メタデータ) (2023-12-19T14:26:23Z) - PID-Inspired Inductive Biases for Deep Reinforcement Learning in
Partially Observable Control Tasks [9.915787487970187]
PIDコントローラの成功を見ると、多くの制御タスクに時間をかけて情報を蓄積するためには、和と差分のみが必要であることが分かる。
PID機能を直接使用するアーキテクチャと、これらのコアアイデアを拡張して任意の制御タスクで使用できるアーキテクチャの2つを提案する。
タスクのトラッキングを超えて、当社のポリシーは従来の最先端メソッドよりも平均1.7倍高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-07-12T03:42:24Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Denoised MDPs: Learning World Models Better Than the World Itself [94.74665254213588]
本研究は,野生の情報を制御可能性と報酬との関係に基づく4つのタイプに分類し,制御性および報酬関連性の両方に有用な情報を定式化する。
DeepMind Control Suite と RoboDesk の変種に関する実験では、生の観測のみを用いた場合よりも、認知された世界モデルの優れた性能が示されている。
論文 参考訳(メタデータ) (2022-06-30T17:59:49Z) - Is Disentanglement enough? On Latent Representations for Controllable
Music Generation [78.8942067357231]
強い生成デコーダが存在しない場合、アンタングル化は必ずしも制御性を意味するものではない。
VAEデコーダに対する潜伏空間の構造は、異なる属性を操作するための生成モデルの能力を高める上で重要な役割を果たす。
論文 参考訳(メタデータ) (2021-08-01T18:37:43Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Deep Actor-Critic Learning for Distributed Power Control in Wireless
Mobile Networks [5.930707872313038]
深層強化学習は、教師付きディープラーニングと古典的な最適化に代わるモデルなしの代替手段を提供する。
本稿では,深いアクター・クリティカル・ラーニングの助けを借りて,分散的に実行された連続電力制御アルゴリズムを提案する。
提案した電力制御アルゴリズムを,携帯端末とチャネル条件が急速に変化するタイムスロットシステムに統合する。
論文 参考訳(メタデータ) (2020-09-14T18:29:12Z) - Defending Against Adversarial Attacks in Transmission- and
Distribution-level PMU Data [2.5365237338254816]
ファーザー計測ユニット(PMU)は電力グリッド操作の状況認識を改善するための高忠実度データを提供する。
PMUデータがより利用可能になり、信頼性が高まるにつれて、これらのデバイスは制御システム内の新しい役割に見出される。
PMUデータストリーム内の悪意あるデータ注入を検出するために,複数の機械学習手法を包括的に分析する。
論文 参考訳(メタデータ) (2020-08-20T18:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。