論文の概要: Distributed Resource Scheduling for Large-Scale MEC Systems: A
Multi-Agent Ensemble Deep Reinforcement Learning with Imitation Acceleration
- arxiv url: http://arxiv.org/abs/2005.12364v1
- Date: Thu, 21 May 2020 20:04:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 00:06:55.102555
- Title: Distributed Resource Scheduling for Large-Scale MEC Systems: A
Multi-Agent Ensemble Deep Reinforcement Learning with Imitation Acceleration
- Title(参考訳): 大規模MECシステムのための分散リソーススケジューリング:模倣高速化による深層強化学習のマルチエージェント化
- Authors: Feibo Jiang and Li Dong and Kezhi Wang and Kun Yang and Cunhua Pan
- Abstract要約: 本稿では,各MECサーバにデプロイされた各エージェントのグローバル情報と分散意思決定に依存する集中型トレーニングを含む分散インテリジェントリソーススケジューリング(DIRS)フレームワークを提案する。
まず,マルチエージェント・アンサンブルを用いた分散強化学習(DRL)アーキテクチャを導入し,各エージェントの全体的なニューラルネットワーク構造を簡素化する。
第2に,提案したDIRSフレームワークの探索能力を高めるために,新しいL'evyフライトサーチにより,最適に近い状態対が得られた。
- 参考スコア(独自算出の注目度): 44.40722828581203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the optimization of distributed resource scheduling to minimize
the sum of task latency and energy consumption for all the Internet of things
devices (IoTDs) in a large-scale mobile edge computing (MEC) system. To address
this problem, we propose a distributed intelligent resource scheduling (DIRS)
framework, which includes centralized training relying on the global
information and distributed decision making by each agent deployed in each MEC
server. More specifically, we first introduce a novel multi-agent
ensemble-assisted distributed deep reinforcement learning (DRL) architecture,
which can simplify the overall neural network structure of each agent by
partitioning the state space and also improve the performance of a single agent
by combining decisions of all the agents. Secondly, we apply action refinement
to enhance the exploration ability of the proposed DIRS framework, where the
near-optimal state-action pairs are obtained by a novel L\'evy flight search.
Finally, an imitation acceleration scheme is presented to pre-train all the
agents, which can significantly accelerate the learning process of the proposed
framework through learning the professional experience from a small amount of
demonstration data. Extensive simulations are conducted to demonstrate that the
proposed DIRS framework is efficient and outperforms the existing benchmark
schemes.
- Abstract(参考訳): 我々は,大規模モバイルエッジコンピューティング(MEC)システムにおいて,IoTD(Internet of Things Device)のタスク遅延とエネルギー消費の総和を最小化するために,分散リソーススケジューリングの最適化を検討する。
この問題に対処するために,各MECサーバにデプロイされた各エージェントによるグローバル情報と分散意思決定に依存する集中型トレーニングを含む分散インテリジェントリソーススケジューリング(DIRS)フレームワークを提案する。
具体的には、まず、状態空間を分割することで各エージェントの全体的なニューラルネットワーク構造を簡素化し、全てのエージェントの判断を組み合わせることで単一のエージェントの性能を向上させることができる、新しいマルチエージェントアンサンブル支援分散強化学習(DRL)アーキテクチャを導入する。
第二に,提案する dirs フレームワークの探索能力を高めるために,新しい l\'evy 飛行探索法を用いて, 最適に近い状態-動作対を求める。
最後に,実演データからプロの体験を学習することで,提案フレームワークの学習過程を著しく高速化する,すべてのエージェントを事前訓練するための模倣促進スキームを提案する。
提案するdirsフレームワークが効率的であり,既存のベンチマーク手法を上回っていることを示すために,広範なシミュレーションを行った。
関連論文リスト
- Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
本稿では,高速なタスク分解とアロケーションプロセスを活用するマルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークを提案する。
提案フレームワークにフィードバックループを組み込んで,そのような問題解決プロセスの有効性と堅牢性をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - Deep progressive reinforcement learning-based flexible resource scheduling framework for IRS and UAV-assisted MEC system [22.789916304113476]
無人航空機(UAV)を利用した移動体エッジコンピューティングシステムは、一時的および緊急のシナリオで広く利用されている。
我々のゴールは、UAV位置、IRS位相シフト、タスクオフロード、リソース割り当てを可変数のUAVで共同最適化することで、MECシステムのエネルギー消費を最小化することである。
論文 参考訳(メタデータ) (2024-08-02T13:10:33Z) - Fully Distributed Fog Load Balancing with Multi-Agent Reinforcement Learning [1.9643748953805935]
本稿では,MARL(Multi-Agent Reinforcement Learning)を用いた完全分散負荷分散ソリューションを提案する。
MARLエージェントは、環境の動的変化に対する生涯の自己適応のためにトランスファーラーニングを使用する。
文献における非現実的な一般的な仮定とは違って,現実的な周波数が環境の状態を観察するために与える影響を解析する。
論文 参考訳(メタデータ) (2024-05-15T23:44:06Z) - A Bayesian Framework of Deep Reinforcement Learning for Joint O-RAN/MEC
Orchestration [12.914011030970814]
マルチアクセスエッジコンピューティング(MEC)は、コモディティプラットフォーム上でOpen Radio Access Network(O-RAN)と一緒に実装することで、低コストなデプロイメントを実現する。
本稿では,ベイジアンディープ強化学習(RL)を用いたO-RAN/MEC協調オーケストレーションを提案する。
論文 参考訳(メタデータ) (2023-12-26T18:04:49Z) - Multi-Resource Allocation for On-Device Distributed Federated Learning
Systems [79.02994855744848]
本研究は,デバイス上の分散フェデレーション学習(FL)システムにおいて,レイテンシとエネルギー消費の重み付け和を最小化する分散マルチリソース割り当て方式を提案する。
システム内の各モバイルデバイスは、指定された領域内でモデルトレーニングプロセスを実行し、それぞれパラメータの導出とアップロードを行うための計算と通信資源を割り当てる。
論文 参考訳(メタデータ) (2022-11-01T14:16:05Z) - Multi-Agent Reinforcement Learning for Long-Term Network Resource
Allocation through Auction: a V2X Application [7.326507804995567]
我々は,自律エージェント間の分散意思決定として,移動エージェントの動的グループ(自動車など)からの計算タスクのオフロードを定式化する。
我々は、競争と協力のバランスをとることで、そのようなエージェントにプライベートとシステム目標の整合を動機付けるインタラクションメカニズムを設計する。
本稿では,部分的,遅延,ノイズの多い状態情報を用いて学習する,新しいマルチエージェントオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T10:29:06Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - AoI-Aware Resource Allocation for Platoon-Based C-V2X Networks via
Multi-Agent Multi-Task Reinforcement Learning [22.890835786710316]
本稿は,小隊の無線リソース管理を意識した情報年齢(AoI)の問題について検討する。
複数の自律型プラトンは、C-V2X通信技術を利用して、協力的認識メッセージ(CAM)をフォロワーに広める。
我々は,マルチエージェント強化学習(marl)に基づく分散リソース割当フレームワークを活用し,各小隊リーダ(pl)がエージェントとして行動し,環境と相互作用して最適方針を学ぶ。
論文 参考訳(メタデータ) (2021-05-10T08:39:56Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。