論文の概要: Multi-lane Cruising Using Hierarchical Planning and Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2110.00650v1
- Date: Fri, 1 Oct 2021 21:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:07:48.845938
- Title: Multi-lane Cruising Using Hierarchical Planning and Reinforcement
Learning
- Title(参考訳): 階層的計画と強化学習を用いたマルチレーンクルーティング
- Authors: Kasra Rezaee, Peyman Yadmellat, Masoud S. Nosrati, Elmira Amirloo
Abolfathi, Mohammed Elmahgiubi, Jun Luo
- Abstract要約: マルチレーンの巡航には、車線変更と車線内操作を用い、良好な速度を達成し、安全を維持する必要がある。
本稿では,階層型強化学習フレームワークと新しい状態-作用空間抽象化を組み合わせることで,自律型マルチレーンクルーズの設計を提案する。
- 参考スコア(独自算出の注目度): 3.7438459768783794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Competent multi-lane cruising requires using lane changes and within-lane
maneuvers to achieve good speed and maintain safety. This paper proposes a
design for autonomous multi-lane cruising by combining a hierarchical
reinforcement learning framework with a novel state-action space abstraction.
While the proposed solution follows the classical hierarchy of behavior
decision, motion planning and control, it introduces a key intermediate
abstraction within the motion planner to discretize the state-action space
according to high level behavioral decisions. We argue that this design allows
principled modular extension of motion planning, in contrast to using either
monolithic behavior cloning or a large set of hand-written rules. Moreover, we
demonstrate that our state-action space abstraction allows transferring of the
trained models without retraining from a simulated environment with virtually
no dynamics to one with significantly more realistic dynamics. Together, these
results suggest that our proposed hierarchical architecture is a promising way
to allow reinforcement learning to be applied to complex multi-lane cruising in
the real world.
- Abstract(参考訳): 有能なマルチレーン巡航には、車線変更と車線内操作を使用して、良好な速度と安全性を維持する必要がある。
本稿では,階層型強化学習フレームワークと新しい状態動作空間抽象化を組み合わせた自律型マルチレーンクルーティングの設計を提案する。
提案手法は行動決定, 行動計画, 制御の古典的階層に従うが, 高レベルな行動決定に従って状態-行動空間を識別するために, 運動プランナ内の重要な中間抽象概念を導入する。
この設計は、モノリシックな動作のクローン化や手書きのルールの大きなセットを使用するのとは対照的に、動作計画の原則的拡張を可能にする。
さらに,この状態-動作空間の抽象化により,シミュレーション環境から動的に再トレーニングすることなく,よりリアルなダイナミクスを持つ環境へ,トレーニングされたモデルを移行できることを実証する。
これらの結果から,提案する階層型アーキテクチャは,実世界の複雑なマルチレーン巡航に強化学習を適用するための有望な方法であることが示唆された。
関連論文リスト
- Deep hybrid models: infer and plan in the real world [0.0]
複雑な制御タスクに対する能動推論に基づく効果的な解を提案する。
提案したアーキテクチャは、ハイブリッド(離散的かつ連続的な)処理を利用して、自己と環境の階層的かつ動的表現を構築する。
我々は、このディープハイブリッドモデルを、移動ツールを選択した後、動く物体に到達するという、非自明なタスクで評価する。
論文 参考訳(メタデータ) (2024-02-01T15:15:25Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Compositional Foundation Models for Hierarchical Planning [52.18904315515153]
本稿では,言語,視覚,行動データを個別に訓練し,長期的課題を解決するための基礎モデルを提案する。
我々は,大規模なビデオ拡散モデルを用いて,環境に根ざした記号的計画を構築するために,大規模言語モデルを用いている。
生成したビデオプランは、生成したビデオからアクションを推論する逆ダイナミクスモデルを通じて、視覚運動制御に基礎を置いている。
論文 参考訳(メタデータ) (2023-09-15T17:44:05Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Behavior Planning at Urban Intersections through Hierarchical
Reinforcement Learning [25.50973559614565]
本研究では,都市環境の階層構造を用いた自律走行計画を行うことができる強化学習(RL)に基づく行動計画構造を提案する。
我々のアルゴリズムは、車線封鎖やエゴ車前方の遅延による交差点に近づく際に、車線変更の可能な方向から左に曲がるタイミングや、車線変更の可能性など、規則に基づく決定方法よりも優れている。
また,提案手法は従来のRL法よりも高速に最適方針に収束することを示した。
論文 参考訳(メタデータ) (2020-11-09T19:23:26Z) - Robot Navigation in Constrained Pedestrian Environments using
Reinforcement Learning [32.454250811667904]
歩行者のまわりをスムーズに移動することは、人間環境に展開する移動ロボットに必要な能力である。
移動歩行者の存在に動的に適応できる政策を学習するための強化学習に基づくアプローチを提案する。
2つの実環境の3D再構成に学習方針の移転を示す。
論文 参考訳(メタデータ) (2020-10-16T19:40:08Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - MAPPER: Multi-Agent Path Planning with Evolutionary Reinforcement
Learning in Mixed Dynamic Environments [30.407700996710023]
本稿では,進化的強化学習法(MAPPER)を用いた分散部分観測可能なマルチエージェントパス計画を提案する。
我々は、長距離ナビゲーションタスクを、グローバルプランナーの指導の下で、より簡単なサブタスクに分解する。
提案手法は,イメージベース表現を用いて動的障害物の挙動をモデル化し,均質性の仮定を伴わない混合動的環境におけるポリシーを訓練する。
論文 参考訳(メタデータ) (2020-07-30T20:14:42Z) - Jump Operator Planning: Goal-Conditioned Policy Ensembles and Zero-Shot
Transfer [71.44215606325005]
本稿では,シーケンシャルなサブゴールタスクの超指数空間における解を高速に計算するための,Jump-Operator Dynamic Programmingという新しいフレームワークを提案する。
このアプローチでは、時間的に拡張された行動として機能する、再利用可能な目標条件付き警察のアンサンブルを制御する。
すると、この部分空間上の目的関数のクラスを、解がグラウンド化に不変であるものとして特定し、最適ゼロショット移動をもたらす。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。