論文の概要: Distributed Resource Allocation with Multi-Agent Deep Reinforcement
Learning for 5G-V2V Communication
- arxiv url: http://arxiv.org/abs/2010.05290v1
- Date: Sun, 11 Oct 2020 17:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 14:07:00.782291
- Title: Distributed Resource Allocation with Multi-Agent Deep Reinforcement
Learning for 5G-V2V Communication
- Title(参考訳): 5G-V2V通信のためのマルチエージェント深部強化学習による分散リソース割り当て
- Authors: Alperen G\"undogan, H. Murat G\"ursu, Volker Pauli, Wolfgang Kellerer
- Abstract要約: 基地局がない場合のV2V通信における分散資源選択問題について考察する。
マルチエージェント強化学習(DIRAL)を用いた新しいDI分散リソース割当機構を提案する。
以上の結果より, 難易度の高いシナリオでは, DIRAL はPSSに比べて PRR を20%改善することが示された。
- 参考スコア(独自算出の注目度): 15.646132584471292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the distributed resource selection problem in Vehicle-to-vehicle
(V2V) communication in the absence of a base station. Each vehicle autonomously
selects transmission resources from a pool of shared resources to disseminate
Cooperative Awareness Messages (CAMs). This is a consensus problem where each
vehicle has to select a unique resource. The problem becomes more challenging
when---due to mobility---the number of vehicles in vicinity of each other is
changing dynamically. In a congested scenario, allocation of unique resources
for each vehicle becomes infeasible and a congested resource allocation
strategy has to be developed. The standardized approach in 5G, namely
semi-persistent scheduling (SPS) suffers from effects caused by spatial
distribution of the vehicles. In our approach, we turn this into an advantage.
We propose a novel DIstributed Resource Allocation mechanism using multi-agent
reinforcement Learning (DIRAL) which builds on a unique state representation.
One challenging issue is to cope with the non-stationarity introduced by
concurrently learning agents which causes convergence problems in multi-agent
learning systems. We aimed to tackle non-stationarity with unique state
representation. Specifically, we deploy view-based positional distribution as a
state representation to tackle non-stationarity and perform complex joint
behavior in a distributed fashion. Our results showed that DIRAL improves PRR
by 20% compared to SPS in challenging congested scenarios.
- Abstract(参考訳): 基地局のない車両間通信(v2v)における分散資源選択問題を考える。
各車両は、共有リソースのプールから送信リソースを自律的に選択し、協調認識メッセージ(CAM)を広める。
これは、各車両がユニークなリソースを選択するというコンセンサスの問題である。
移動性により、互いに近接する車両の数が動的に変化している場合、問題はより困難になる。
渋滞シナリオでは、各車両に固有のリソースを割り当てることが不可能になり、混雑したリソース割り当て戦略を開発する必要がある。
5Gの標準化されたアプローチ、すなわち半永続スケジューリング(SPS)は、車両の空間分布に起因する影響に悩まされる。
私たちのアプローチでは、これを利点にしています。
本稿では,一意な状態表現に基づくマルチエージェント強化学習(diral)を用いた分散リソース割り当て機構を提案する。
課題の1つは、マルチエージェント学習システムにおいて収束問題を引き起こす同時学習エージェントによって導入された非定常性に対処することである。
我々は特異な状態表現で非定常性に取り組むことを目指していた。
具体的には,非定常性に取り組み,分散的に複雑な共同動作を行う状態表現として,ビューベースの位置分布を展開する。
以上の結果より,DIRALは難易度の高いシナリオではPSSに比べてPRRを20%改善することがわかった。
関連論文リスト
- Fair collaborative vehicle routing: A deep multi-agent reinforcement
learning approach [49.00137468773683]
協力的な車両ルーティングは、キャリアがそれぞれの輸送要求を共有し、互いに代表して輸送要求を実行することで協力するときに発生する。
従来のゲーム理論解の概念は、特性関数がエージェントの数とともに指数関数的にスケールするので、計算に費用がかかる。
我々は,この問題を,深層マルチエージェント強化学習を用いて解決した連立交渉ゲームとしてモデル化することを提案する。
論文 参考訳(メタデータ) (2023-10-26T15:42:29Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Multi-Start Team Orienteering Problem for UAS Mission Re-Planning with
Data-Efficient Deep Reinforcement Learning [9.877261093287304]
我々は、当初車両が補給所から離れた場所にあり、燃料の量が異なるミッション再計画問題について検討する。
そこで我々は,各部分ツアーに対する自己注意と,部分ツアーと残りのノード間のエンコーダ・デコーダの注意を組み込んだポリシーネットワークを構築した。
本稿では,複数の非重複サンプルのロールアウトに基づく局所的なミニバッチベースラインに,グリーディロールアウトベースラインを置き換えたREINFORCEアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-02T15:15:56Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Resource-Aware Distributed Submodular Maximization: A Paradigm for
Multi-Robot Decision-Making [3.5788754401889022]
Resource-Aware Distributed Greedyは、各ロボットのオンボードリソースを独立して考慮した最初のアルゴリズムである。
RAGは、中央集権化のトレードオフを、グローバルな準最適性、分散化、ほぼ最小のオンボード計算、通信、メモリリソースのトレードオフとバランス付けます。
論文 参考訳(メタデータ) (2022-04-15T15:47:05Z) - Flatland Competition 2020: MAPF and MARL for Efficient Train
Coordination on a Grid World [49.80905654161763]
車両再スケジュール問題(vrsp)の解法開発を目的としたフラットランドコンペティション
VRSPは、交通ネットワークにおける旅行のスケジュールと、故障が発生した場合の車両の再スケジュールに関するものである。
現代の鉄道網の複雑化は、交通の動的リアルタイムスケジューリングを事実上不可能にします。
論文 参考訳(メタデータ) (2021-03-30T17:13:29Z) - Resource allocation in dynamic multiagent systems [0.0]
MG-RAOアルゴリズムは,マルチエージェントシステムにおける資源配分問題を解決するために開発された。
シミュレーション環境における固定リソース割り当てに対する23~28%の改善を示す。
また、揮発性システムでは、mg-raoアルゴリズムを用いて、子エージェントがすべてのエージェントのリソース割り当てをモデル化するように構成されているため、複数のエージェント群をモデル化するときのパフォーマンスは46.5%である。
論文 参考訳(メタデータ) (2021-02-16T17:56:23Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Multi-Agent Reinforcement Learning for Channel Assignment and Power
Allocation in Platoon-Based C-V2X Systems [15.511438222357489]
我々は,C-V2Xシステムにおける結合チャネル割り当てと電力配分の問題点を考察する。
提案する分散リソース割当アルゴリズムは,よく知られた網羅的探索アルゴリズムと比較して,近い性能を提供する。
論文 参考訳(メタデータ) (2020-11-09T16:55:09Z) - Multi-Agent Deep Reinforcement Learning enabled Computation Resource
Allocation in a Vehicular Cloud Network [30.736512922808362]
本稿では,分散アドホック車載ネットワークにおける中央集権的なインフラサポートのない計算資源配分問題について検討する。
VCNにおける真の中央制御ユニットの欠如というジレンマを克服するため、車両上での割り当てを分散的に完了する。
論文 参考訳(メタデータ) (2020-08-14T17:02:24Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。