論文の概要: Modelling resource allocation in uncertain system environment through
deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2106.09461v1
- Date: Thu, 17 Jun 2021 13:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:56:58.811715
- Title: Modelling resource allocation in uncertain system environment through
deep reinforcement learning
- Title(参考訳): 深層強化学習による不確かさシステム環境における資源配分のモデル化
- Authors: Neel Gandhi, Shakti Mishra
- Abstract要約: 強化学習(Reinforcement Learning)は、メカトロニクス、ロボティクス、その他の資源に制約のある制御システムに応用されている。
本稿では, 二重深度Qネットワークを用いたノイズバッギングにより, 不確実な環境下での資源配分の問題を効果的に解決できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reinforcement Learning has applications in field of mechatronics, robotics,
and other resource-constrained control system. Problem of resource allocation
is primarily solved using traditional predefined techniques and modern deep
learning methods. The drawback of predefined and most deep learning methods for
resource allocation is failing to meet the requirements in cases of uncertain
system environment. We can approach problem of resource allocation in uncertain
system environment alongside following certain criteria using deep
reinforcement learning. Also, reinforcement learning has ability for adapting
to new uncertain environment for prolonged period of time. The paper provides a
detailed comparative analysis on various deep reinforcement learning methods by
applying different components to modify architecture of reinforcement learning
with use of noisy layers, prioritized replay, bagging, duelling networks, and
other related combination to obtain improvement in terms of performance and
reduction of computational cost. The paper identifies problem of resource
allocation in uncertain environment could be effectively solved using Noisy
Bagging duelling double deep Q network achieving efficiency of 97.7% by
maximizing reward with significant exploration in given simulated environment
for resource allocation.
- Abstract(参考訳): 強化学習はメカトロニクス、ロボティクス、その他のリソース制約された制御システムの分野で応用されている。
リソース割り当ての問題は、主に伝統的な事前定義技術と最新のディープラーニング手法を用いて解決される。
リソース割り当てのための事前定義された最も深い学習方法の欠点は、不確定なシステム環境の場合の要件を満たさないことである。
我々は,不確実なシステム環境における資源配分の問題に,深層強化学習を用いた一定の基準に従うことができる。
また、強化学習は長期にわたって新しい不確実な環境に適応する能力を有する。
本稿では,様々な深層強化学習手法について,ノイズ層,優先順位付けされたリプレイ,袋詰め,デュエルネットワーク,および関連する組み合わせを用いて強化学習のアーキテクチャを変更するために異なるコンポーネントを適用し,性能と計算コストの削減の観点から改善を図ることで,詳細な比較分析を行う。
本論文は, 資源配分のシミュレーション環境において, 資源割当を最大化することで, 資源割当の効率を97.7%向上し, ノイズバッギングによる資源割当を効果的に解決できることを示した。
関連論文リスト
- A Comprehensive Survey on Joint Resource Allocation Strategies in Federated Edge Learning [9.806901443019008]
Federated Edge Learning (FEL)は、分散環境でのモデルトレーニングを可能にすると同時に、ユーザデータの物理的分離を利用することで、ユーザのプライバシを確保する。
IoT(Internet of Things)やSmart Earthといった複雑なアプリケーションシナリオの開発により、従来のリソース割り当てスキームは、これらの増大する計算および通信要求を効果的にサポートすることができなくなった。
本稿では,複数の資源需要が増大する中で,計算と通信の多面的課題を体系的に解決する。
論文 参考訳(メタデータ) (2024-10-10T13:02:00Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - COIN: Chance-Constrained Imitation Learning for Uncertainty-aware
Adaptive Resource Oversubscription Policy [37.034543365623286]
不確実性が存在する場合に安全で堅牢な意思決定ポリシーを学ぶという課題に対処する。
従来の教師付き予測や予測モデルは適応ポリシーの学習には効果がない。
オンライン最適化や強化学習は、実際のシステムにデプロイすることが難しい。
論文 参考訳(メタデータ) (2024-01-13T11:43:25Z) - Federated Reinforcement Learning for Resource Allocation in V2X Networks [46.6256432514037]
資源配分はV2Xネットワークの性能に大きな影響を及ぼす。
リソース割り当てのための既存のアルゴリズムのほとんどは、最適化や機械学習に基づいている。
本稿では,連合型強化学習の枠組みの下で,V2Xネットワークにおける資源配分について検討する。
論文 参考訳(メタデータ) (2023-10-15T15:26:54Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Diversity Through Exclusion (DTE): Niche Identification for
Reinforcement Learning through Value-Decomposition [63.67574523750839]
本稿では,多変量ニッチ環境におけるベースライン深度Q-ラーニングアルゴリズムよりも優れた汎用強化学習(RL)アルゴリズムを提案する。
この方法で訓練されたエージェントは、貧弱だが魅力ある局所最適化から逃れて、より高い価値戦略の発見を困難にすることを示します。
論文 参考訳(メタデータ) (2023-02-02T16:00:19Z) - The Cost of Learning: Efficiency vs. Efficacy of Learning-Based RRM for
6G [10.28841351455586]
深層強化学習(DRL)は、複雑なネットワークにおける効率的な資源管理戦略を自動学習するための貴重なソリューションとなっている。
多くのシナリオでは、学習タスクはクラウドで実行され、経験サンプルはエッジノードまたはユーザによって直接生成される。
これにより、効果的な戦略に向けて収束をスピードアップする必要性と、学習サンプルの送信にリソースの割り当てが必要となることの間に摩擦が生じます。
本稿では,学習とデータプレーン間の動的バランス戦略を提案する。これにより,集中型学習エージェントは,効率的な資源配分戦略に迅速に収束することができる。
論文 参考訳(メタデータ) (2022-11-30T11:26:01Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Resource-Efficient Deep Learning: A Survey on Model-, Arithmetic-, and
Implementation-Level Techniques [10.715525749057495]
ディープラーニングは、自動運転車、バーチャルアシスタント、ソーシャルネットワークサービス、ヘルスケアサービス、顔認識など、私たちの日常生活に広く浸透しています。
深層ニューラルネットワークは、トレーニングと推論の間にかなりの計算資源を必要とする。
本稿では、モデル、算術、実装レベルの技術の観点から、資源効率の高いディープラーニング技術について調査する。
論文 参考訳(メタデータ) (2021-12-30T17:00:06Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - RC-DARTS: Resource Constrained Differentiable Architecture Search [162.7199952019152]
資源制約付き微分可能なアーキテクチャ探索法(RC-DARTS)を提案する。
RC-DARTS法は,モデルサイズが小さく,計算量も少ない,軽量なニューラルアーキテクチャを学習する。
論文 参考訳(メタデータ) (2019-12-30T05:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。