論文の概要: Learning to Communicate with Reinforcement Learning for an Adaptive
Traffic Control System
- arxiv url: http://arxiv.org/abs/2110.15779v1
- Date: Fri, 29 Oct 2021 13:46:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 15:35:40.264521
- Title: Learning to Communicate with Reinforcement Learning for an Adaptive
Traffic Control System
- Title(参考訳): 適応型交通制御システムのための強化学習と通信する学習
- Authors: Simon Vanneste, Gauthier de Borrekens, Stig Bosmans, Astrid Vanneste,
Kevin Mets, Siegfried Mercelis, Steven Latr\'e, Peter Hellinckx
- Abstract要約: 適応的交通制御システム(ATCS)上での学習情報を用いた,コミュニケーションのない独立したQ-ラーニング(IQL)と識別可能なエージェント間ラーニング(DIAL)について検討する。
以上の結果から,DIALエージェントは,他のエージェントと関連する情報を共有できるため,トレーニング時間と最大報酬の両方において,独立したQ-Larnerよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in multi-agent reinforcement learning has investigated inter
agent communication which is learned simultaneously with the action policy in
order to improve the team reward. In this paper, we investigate independent
Q-learning (IQL) without communication and differentiable inter-agent learning
(DIAL) with learned communication on an adaptive traffic control system (ATCS).
In real world ATCS, it is impossible to present the full state of the
environment to every agent so in our simulation, the individual agents will
only have a limited observation of the full state of the environment. The ATCS
will be simulated using the Simulation of Urban MObility (SUMO) traffic
simulator in which two connected intersections are simulated. Every
intersection is controlled by an agent which has the ability to change the
direction of the traffic flow. Our results show that a DIAL agent outperforms
an independent Q-learner on both training time and on maximum achieved reward
as it is able to share relevant information with the other agents.
- Abstract(参考訳): マルチエージェント強化学習における最近の研究は、チーム報酬を改善するためにアクションポリシーと同時に学習されるエージェント間コミュニケーションを調査している。
本稿では,適応型交通制御システム(ATCS)上での学習通信により,コミュニケーションのない独立したQ-ラーニング(IQL)と識別可能なエージェント間ラーニング(DIAL)について検討する。
実世界のATCSでは、各エージェントに環境の完全な状態を提示することは不可能であり、シミュレーションでは、個々のエージェントが環境の完全な状態を限定的に観察することしかできない。
ATCSは2つの接続交差点を模擬した都市移動シミュレーション(SUMO)トラフィックシミュレータを用いてシミュレーションを行う。
各交差点は、交通の流れの方向を変える能力を持つエージェントによって制御される。
以上の結果から,ダイアルエージェントは他のエージェントと情報を共有できるため,学習時間と最大報酬の双方において独立したq-learnerよりも優れていた。
関連論文リスト
- SPformer: A Transformer Based DRL Decision Making Method for Connected Automated Vehicles [9.840325772591024]
本稿ではトランスフォーマーと強化学習アルゴリズムに基づくCAV意思決定アーキテクチャを提案する。
学習可能なポリシートークンは、多車連携ポリシーの学習媒体として使用される。
我々のモデルは交通シナリオにおける車両の全ての状態情報をうまく活用することができる。
論文 参考訳(メタデータ) (2024-09-23T15:16:35Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Multi-Agent Transfer Learning in Reinforcement Learning-Based
Ride-Sharing Systems [3.7311680121118345]
強化学習(Reinforcement Learning, RL)は、実世界の様々なシミュレーションタスクで使われている。
本稿では,固定ソースとターゲットロールを用いたTL転送パラメータの影響について検討する。
論文 参考訳(メタデータ) (2021-12-01T11:23:40Z) - Effects of Smart Traffic Signal Control on Air Quality [0.0]
マルチエージェント深部強化学習(MARL)は交通システムにおいて実験的に研究されている。
MA2Cと呼ばれる、確立されたアドバンテージアクター・クリティカル(A2C)アルゴリズムのマルチエージェント版が最近開発され、エージェント間の通信の有望なアイデアを活用している。
この観点から、エージェントは他のエージェントと戦略を共有し、エージェントの数や多様性が増大しても学習プロセスを安定化させる。
論文 参考訳(メタデータ) (2021-07-06T02:48:42Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Independent Reinforcement Learning for Weakly Cooperative Multiagent
Traffic Control Problem [22.733542222812158]
本研究では,irl(independent reinforcement learning)を用いて複雑な交通協調制御問題を解く。
そこで, 交通制御問題を部分的に観測可能な弱協調交通モデル (PO-WCTM) としてモデル化し, 交差点群全体の交通状況を最適化する。
実験の結果,CIL-DDQNはトラヒック制御問題のほぼすべての性能指標において,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-04-22T07:55:46Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。