論文の概要: Multi-Agent Reinforcement Learning for Long-Term Network Resource
Allocation through Auction: a V2X Application
- arxiv url: http://arxiv.org/abs/2208.04237v1
- Date: Fri, 29 Jul 2022 10:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-14 18:11:27.518333
- Title: Multi-Agent Reinforcement Learning for Long-Term Network Resource
Allocation through Auction: a V2X Application
- Title(参考訳): オークションによる長期ネットワーク資源配分のためのマルチエージェント強化学習:V2Xアプリケーション
- Authors: Jing Tan and Ramin Khalili and Holger Karl and Artur Hecker
- Abstract要約: 我々は,自律エージェント間の分散意思決定として,移動エージェントの動的グループ(自動車など)からの計算タスクのオフロードを定式化する。
我々は、競争と協力のバランスをとることで、そのようなエージェントにプライベートとシステム目標の整合を動機付けるインタラクションメカニズムを設計する。
本稿では,部分的,遅延,ノイズの多い状態情報を用いて学習する,新しいマルチエージェントオンライン学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.326507804995567
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We formulate offloading of computational tasks from a dynamic group of mobile
agents (e.g., cars) as decentralized decision making among autonomous agents.
We design an interaction mechanism that incentivizes such agents to align
private and system goals by balancing between competition and cooperation. In
the static case, the mechanism provably has Nash equilibria with optimal
resource allocation. In a dynamic environment, this mechanism's requirement of
complete information is impossible to achieve. For such environments, we
propose a novel multi-agent online learning algorithm that learns with partial,
delayed and noisy state information, thus greatly reducing information need.
Our algorithm is also capable of learning from long-term and sparse reward
signals with varying delay. Empirical results from the simulation of a V2X
application confirm that through learning, agents with the learning algorithm
significantly improve both system and individual performance, reducing up to
30% of offloading failure rate, communication overhead and load variation,
increasing computation resource utilization and fairness. Results also confirm
the algorithm's good convergence and generalization property in different
environments.
- Abstract(参考訳): 自律エージェント間の分散意思決定として,移動エージェントの動的グループ(車など)からの計算タスクのオフロードを定式化する。
このようなエージェントにインセンティブを与え,競争と協力のバランスをとることで,プライベートとシステム目標を一致させるインタラクション機構を設計する。
静的な場合、メカニズムは最適なリソース割り当てを持つnash平衡を持つ。
動的環境では、このメカニズムの完全な情報を要求することは不可能である。
このような環境では,部分的,遅延的,ノイズの多い状態情報を用いて学習する新しいマルチエージェントオンライン学習アルゴリズムを提案する。
アルゴリズムは,遅延の異なる長期的およびスパースな報酬信号から学習する能力も備えている。
V2Xアプリケーションのシミュレーションによる実証的な結果から,学習アルゴリズムを用いたエージェントはシステムと個々のパフォーマンスの両方を著しく改善し,オフロード障害率,通信オーバーヘッド,負荷変動の最大30%を低減し,計算資源の利用率と公平性を向上することを確認した。
結果は、異なる環境におけるアルゴリズムの収束性と一般化性も確認した。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Multi-Objective Optimization Using Adaptive Distributed Reinforcement Learning [8.471466670802815]
本稿では,多目的・マルチエージェント強化学習(MARL)アルゴリズムを提案する。
我々はエッジクラウドコンピューティングを用いたITS環境でアルゴリズムをテストする。
また,本アルゴリズムは,モジュール化および非同期オンライントレーニング手法により,様々な実用上の問題にも対処する。
論文 参考訳(メタデータ) (2024-03-13T18:05:16Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Multi-Agent Distributed Reinforcement Learning for Making Decentralized
Offloading Decisions [7.326507804995567]
自律エージェントによる分散意思決定問題として計算オフロードを定式化する。
我々は、競争と協力のバランスをとることで、エージェントにプライベートとシステム目標の整合を動機付けるインタラクションメカニズムを設計する。
動的環境下では,部分的,遅延的,ノイズの多い状態情報を用いて学習する新しいマルチエージェントオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-05T15:01:48Z) - Cellular traffic offloading via Opportunistic Networking with
Reinforcement Learning [0.5758073912084364]
本稿では,Reinforcement Learningフレームワークに基づく適応型オフロードソリューションを提案する。
Actor-Critic と Q-Learning の2つのよく知られた学習アルゴリズムの性能を評価し比較する。
我々のソリューションは、他の最先端のアプローチよりも高いレベルのオフロードを実現する。
論文 参考訳(メタデータ) (2021-10-01T13:34:12Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Distributed Resource Scheduling for Large-Scale MEC Systems: A
Multi-Agent Ensemble Deep Reinforcement Learning with Imitation Acceleration [44.40722828581203]
本稿では,各MECサーバにデプロイされた各エージェントのグローバル情報と分散意思決定に依存する集中型トレーニングを含む分散インテリジェントリソーススケジューリング(DIRS)フレームワークを提案する。
まず,マルチエージェント・アンサンブルを用いた分散強化学習(DRL)アーキテクチャを導入し,各エージェントの全体的なニューラルネットワーク構造を簡素化する。
第2に,提案したDIRSフレームワークの探索能力を高めるために,新しいL'evyフライトサーチにより,最適に近い状態対が得られた。
論文 参考訳(メタデータ) (2020-05-21T20:04:40Z) - Multi-agent Reinforcement Learning for Resource Allocation in IoT
networks with Edge Computing [16.129649374251088]
エンドユーザーが計算をオフロードするのは、スペクトルとリソースに対する大きな要求のためである。
本稿では,IoTエッジコンピューティングネットワークにおけるリソース割り当てを伴うオフロード機構をゲームとして定式化することによって検討する。
論文 参考訳(メタデータ) (2020-04-05T20:59:20Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。