論文の概要: Traffic Signal Control with Communicative Deep Reinforcement Learning
Agents: a Case Study
- arxiv url: http://arxiv.org/abs/2107.01347v1
- Date: Sat, 3 Jul 2021 05:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 15:11:43.922646
- Title: Traffic Signal Control with Communicative Deep Reinforcement Learning
Agents: a Case Study
- Title(参考訳): 通信深部強化学習エージェントを用いた交通信号制御 : 事例研究
- Authors: Paolo Fazzini, Isaac Wheeler, Francesco Petracchini
- Abstract要約: 理論的・実験的にマルチエージェントアドバンテージ・アクター・クリティカル(MA2C)と独立アドバンテージ・アクター・クリティカル(IA2C)を解析する。
2つの方法は、ローカルまたはグローバルに計算された報酬と、エージェントのコミュニケーションの管理において異なる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we theoretically and experimentally analyze Multi-Agent
Advantage Actor-Critic (MA2C) and Independent Advantage Actor-Critic (IA2C),
two recently proposed multi-agent reinforcement learning methods that can be
applied to control traffic signals in urban areas. The two methods differ in
their use of a reward calculated locally or globally and in the management of
agents' communication. We analyze the methods theoretically with the framework
provided by non-Markov decision processes, which provides useful insights in
the analysis of the algorithms. Moreover, we analyze the efficacy and the
robustness of the methods experimentally by testing them in two traffic areas
in the Bologna (Italy) area, simulated by SUMO, a software tool. The
experimental results indicate that MA2C achieves the best performance in the
majority of cases, outperforms the alternative method considered, and displays
sufficient stability during the learning process.
- Abstract(参考訳): 本研究では,最近提案されている2つの多エージェント強化学習法であるma2c(multi-agent advantage actor-critic)とia2c(independent advantage actor-critic)を理論的に実験的に解析した。
この2つの方法は、ローカルまたはグローバルで計算された報酬の使用とエージェントのコミュニケーションの管理で異なる。
提案手法は,非マルコフ決定プロセスが提供するフレームワークを用いて理論的に解析し,アルゴリズムの分析に有用な知見を提供する。
また,bologna (italy)エリアの2つの交通エリアにおいて,ソフトウェアツールであるsumoによるシミュレーションを行い,実験的な手法の有効性と頑健性を解析した。
実験の結果,MA2Cはほとんどのケースで最高の性能を示し,検討した代替手法よりも優れ,学習過程において十分な安定性を示すことがわかった。
関連論文リスト
- Certificated Actor-Critic: Hierarchical Reinforcement Learning with Control Barrier Functions for Safe Navigation [10.177896903517546]
制御バリア関数(CBF)は、ロボットの安全なナビゲーションシステムを設計するための顕著なアプローチとして登場した。
我々はCertificated Actor-Critic (CAC) と呼ばれるモデルなし強化学習アルゴリズムを提案する。
CACは、階層的な強化学習フレームワークと、CBFから派生した明確に定義された報酬関数を導入している。
論文 参考訳(メタデータ) (2025-01-29T05:37:47Z) - Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - MA2CL:Masked Attentive Contrastive Learning for Multi-Agent
Reinforcement Learning [128.19212716007794]
我々はtextbfMulti-textbfAgent textbfMasked textbfAttentive textbfContrastive textbfLearning (MA2CL) という効果的なフレームワークを提案する。
MA2CLは、潜伏空間におけるマスクされたエージェント観察を再構築することにより、時間的およびエージェントレベルの予測の両方の学習表現を奨励する。
提案手法は,様々なMARLアルゴリズムの性能とサンプル効率を大幅に向上させ,様々な視覚的,状態的シナリオにおいて,他の手法よりも優れる。
論文 参考訳(メタデータ) (2023-06-03T05:32:19Z) - Traj-MAE: Masked Autoencoders for Trajectory Prediction [69.7885837428344]
軌道予測は、危険を予測して信頼性の高い自動運転システムを構築する上で重要な課題である。
本稿では,運転環境におけるエージェントの複雑な動作をよりよく表現する,軌道予測のための効率的なマスク付きオートエンコーダを提案する。
複数エージェント設定と単一エージェント設定の両方の実験結果から,Traj-MAEが最先端手法と競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-12T16:23:27Z) - Lexicographic Multi-Objective Reinforcement Learning [65.90380946224869]
このような問題を解決するために,アクション値アルゴリズムとポリシー勾配アルゴリズムの両方のファミリを提案する。
エージェントの動作に安全制約を課すのに我々のアルゴリズムをどのように使用できるかを示し、この文脈でのそれらの性能を他の制約付き強化学習アルゴリズムと比較する。
論文 参考訳(メタデータ) (2022-12-28T10:22:36Z) - MACC: Cross-Layer Multi-Agent Congestion Control with Deep Reinforcement
Learning [14.29757990259669]
Congestion Control (CC)は、ネットワーク容量を効率的に活用するためのコアネットワークタスクである。
本稿では,マルチエージェント強化学習に基づく階層間混雑制御アルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-06-04T12:02:35Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Curriculum Learning for Safe Mapless Navigation [71.55718344087657]
本研究は,カリキュラム学習(CL)に基づくアプローチがエージェントのパフォーマンスに与える影響について検討する。
特に、ロボットマップレスナビゲーションの安全性に焦点をあて、標準的なエンドツーエンド(E2E)トレーニング戦略と比較する。
論文 参考訳(メタデータ) (2021-12-23T12:30:36Z) - Off-Policy Correction For Multi-Agent Reinforcement Learning [9.599347559588216]
マルチエージェント強化学習(MARL)は、複数の対話エージェントに関わる問題のためのフレームワークを提供する。
単エージェントの場合と明らかに類似しているにもかかわらず、マルチエージェント問題はしばしば、理論的な訓練と解析が困難である。
我々は、V-TraceをMARL設定まで拡張する、新しいオンラインアクター批判アルゴリズムMA-Traceを提案する。
論文 参考訳(メタデータ) (2021-11-22T14:23:13Z) - A Comparative Study of Algorithms for Intelligent Traffic Signal Control [0.0]
待ち時間と待ち時間を最小限に抑えるために,交通信号制御を効果的に最適化する手法が提案されている。
これらの手法は、インドのバンガロールの現実世界の交差点のシミュレーションでテストされた。
論文 参考訳(メタデータ) (2021-09-02T13:26:49Z) - Effects of Smart Traffic Signal Control on Air Quality [0.0]
マルチエージェント深部強化学習(MARL)は交通システムにおいて実験的に研究されている。
MA2Cと呼ばれる、確立されたアドバンテージアクター・クリティカル(A2C)アルゴリズムのマルチエージェント版が最近開発され、エージェント間の通信の有望なアイデアを活用している。
この観点から、エージェントは他のエージェントと戦略を共有し、エージェントの数や多様性が増大しても学習プロセスを安定化させる。
論文 参考訳(メタデータ) (2021-07-06T02:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。