論文の概要: Traffic Signal Control with Communicative Deep Reinforcement Learning
Agents: a Case Study
- arxiv url: http://arxiv.org/abs/2107.01347v4
- Date: Tue, 5 Dec 2023 13:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 20:48:52.635505
- Title: Traffic Signal Control with Communicative Deep Reinforcement Learning
Agents: a Case Study
- Title(参考訳): 通信深部強化学習エージェントを用いた交通信号制御 : 事例研究
- Authors: Paolo Fazzini, Isaac Wheeler, Francesco Petracchini
- Abstract要約: 我々は最近提案されたマルチエージェント強化学習アルゴリズムであるマルチエージェント・アドバンテージ・アクター・クリティカル(MA2C)を分析した。
我々は,MA2Cと独立アドバンテージ・アクター・クリティカル(IA2C)や他の強化学習や強化学習アルゴリズムを比較した。
この結果から,擬似ランダム車流を訓練したMA2Cは,代替手法よりも優れた性能を発揮する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we analyze Multi-Agent Advantage Actor-Critic (MA2C) a recently
proposed multi-agent reinforcement learning algorithm that can be applied to
adaptive traffic signal control (ATSC) problems. To evaluate its potential we
compare MA2C with Independent Advantage Actor-Critic (IA2C) and other
Reinforcement Learning or heuristic based algorithms. Specifically, we analyze
MA2C theoretically with the framework provided by non-Markov decision
processes, which allows a deeper insight of the algorithm, and we critically
examine the effectiveness and the robustness of the method by testing it in two
traffic areas located in Bologna (Italy) simulated in SUMO, a software modeling
tool for ATSC problems. Our results indicate that MA2C, trained with
pseudo-random vehicle flows, is a promising technique able to outperform the
alternative methods.
- Abstract(参考訳): 本研究では,適応交通信号制御(ATSC)問題に適用可能なマルチエージェント強化学習アルゴリズムであるマルチエージェント・アドバンテージ・アクタ・クリティカル(MA2C)を分析する。
その可能性を評価するために、ma2cを独立アドバンテージアクタ-クリティック(ia2c)や他の強化学習やヒューリスティックベースアルゴリズムと比較する。
具体的には,アルゴリズムの深い洞察を可能にする非マルコフ決定過程の枠組みを用いて理論的にma2cを解析し,atsc問題に対するソフトウェアモデリングツールであるsumoでシミュレートされたbologna(イタリア)にある2つのトラフィックエリアでテストすることにより,手法の有効性と堅牢性について批判的に検討する。
この結果から,擬似ランダム車流を訓練したMA2Cは,代替手法よりも優れた性能を発揮する可能性が示唆された。
関連論文リスト
- RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - MA2CL:Masked Attentive Contrastive Learning for Multi-Agent
Reinforcement Learning [128.19212716007794]
我々はtextbfMulti-textbfAgent textbfMasked textbfAttentive textbfContrastive textbfLearning (MA2CL) という効果的なフレームワークを提案する。
MA2CLは、潜伏空間におけるマスクされたエージェント観察を再構築することにより、時間的およびエージェントレベルの予測の両方の学習表現を奨励する。
提案手法は,様々なMARLアルゴリズムの性能とサンプル効率を大幅に向上させ,様々な視覚的,状態的シナリオにおいて,他の手法よりも優れる。
論文 参考訳(メタデータ) (2023-06-03T05:32:19Z) - Traj-MAE: Masked Autoencoders for Trajectory Prediction [69.7885837428344]
軌道予測は、危険を予測して信頼性の高い自動運転システムを構築する上で重要な課題である。
本稿では,運転環境におけるエージェントの複雑な動作をよりよく表現する,軌道予測のための効率的なマスク付きオートエンコーダを提案する。
複数エージェント設定と単一エージェント設定の両方の実験結果から,Traj-MAEが最先端手法と競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-12T16:23:27Z) - Lexicographic Multi-Objective Reinforcement Learning [65.90380946224869]
このような問題を解決するために,アクション値アルゴリズムとポリシー勾配アルゴリズムの両方のファミリを提案する。
エージェントの動作に安全制約を課すのに我々のアルゴリズムをどのように使用できるかを示し、この文脈でのそれらの性能を他の制約付き強化学習アルゴリズムと比較する。
論文 参考訳(メタデータ) (2022-12-28T10:22:36Z) - MACC: Cross-Layer Multi-Agent Congestion Control with Deep Reinforcement
Learning [14.29757990259669]
Congestion Control (CC)は、ネットワーク容量を効率的に活用するためのコアネットワークタスクである。
本稿では,マルチエージェント強化学習に基づく階層間混雑制御アルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-06-04T12:02:35Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Curriculum Learning for Safe Mapless Navigation [71.55718344087657]
本研究は,カリキュラム学習(CL)に基づくアプローチがエージェントのパフォーマンスに与える影響について検討する。
特に、ロボットマップレスナビゲーションの安全性に焦点をあて、標準的なエンドツーエンド(E2E)トレーニング戦略と比較する。
論文 参考訳(メタデータ) (2021-12-23T12:30:36Z) - Off-Policy Correction For Multi-Agent Reinforcement Learning [9.599347559588216]
マルチエージェント強化学習(MARL)は、複数の対話エージェントに関わる問題のためのフレームワークを提供する。
単エージェントの場合と明らかに類似しているにもかかわらず、マルチエージェント問題はしばしば、理論的な訓練と解析が困難である。
我々は、V-TraceをMARL設定まで拡張する、新しいオンラインアクター批判アルゴリズムMA-Traceを提案する。
論文 参考訳(メタデータ) (2021-11-22T14:23:13Z) - A Comparative Study of Algorithms for Intelligent Traffic Signal Control [0.0]
待ち時間と待ち時間を最小限に抑えるために,交通信号制御を効果的に最適化する手法が提案されている。
これらの手法は、インドのバンガロールの現実世界の交差点のシミュレーションでテストされた。
論文 参考訳(メタデータ) (2021-09-02T13:26:49Z) - Effects of Smart Traffic Signal Control on Air Quality [0.0]
マルチエージェント深部強化学習(MARL)は交通システムにおいて実験的に研究されている。
MA2Cと呼ばれる、確立されたアドバンテージアクター・クリティカル(A2C)アルゴリズムのマルチエージェント版が最近開発され、エージェント間の通信の有望なアイデアを活用している。
この観点から、エージェントは他のエージェントと戦略を共有し、エージェントの数や多様性が増大しても学習プロセスを安定化させる。
論文 参考訳(メタデータ) (2021-07-06T02:48:42Z) - Combining Reinforcement Learning with Model Predictive Control for
On-Ramp Merging [10.480121529429631]
自律運転における運動計画問題の解法として,モデル予測制御(MPC)と強化学習(RL)の2つの幅広い手法が提案されている。
まず、シミュレーションにより最先端のMPCとRLベースの技術の長所と短所を確立する。
その後、モデルフリーなRLエージェントとMPCソリューションをブレンドして、乗客の快適性、効率性、衝突速度、堅牢性といったすべての指標間のトレードオフを改善できることを示すアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-17T07:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。