論文の概要: Adapting Reinforcement Learning for Path Planning in Constrained Parking Scenarios
- arxiv url: http://arxiv.org/abs/2601.22545v1
- Date: Fri, 30 Jan 2026 04:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.22198
- Title: Adapting Reinforcement Learning for Path Planning in Constrained Parking Scenarios
- Title(参考訳): 制約付き駐車シナリオにおける経路計画への強化学習の適用
- Authors: Feng Tao, Luca Paparusso, Chenyi Gu, Robin Koehler, Chenxu Wu, Xinyu Huang, Christian Juette, David Paz, Ren Liu,
- Abstract要約: 駐車場におけるリアルタイム経路計画のためのDeep Reinforcement Learningフレームワークを提案する。
古典的なプランナーとは異なり、我々の解は理想的で構造化された知覚を必要としない。
テスト時には、ポリシーは各ステップで1つのフォワードパスを通じてアクションを生成します。
- 参考スコア(独自算出の注目度): 6.734318562862061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time path planning in constrained environments remains a fundamental challenge for autonomous systems. Traditional classical planners, while effective under perfect perception assumptions, are often sensitive to real-world perception constraints and rely on online search procedures that incur high computational costs. In complex surroundings, this renders real-time deployment prohibitive. To overcome these limitations, we introduce a Deep Reinforcement Learning (DRL) framework for real-time path planning in parking scenarios. In particular, we focus on challenging scenes with tight spaces that require a high number of reversal maneuvers and adjustments. Unlike classical planners, our solution does not require ideal and structured perception, and in principle, could avoid the need for additional modules such as localization and tracking, resulting in a simpler and more practical implementation. Also, at test time, the policy generates actions through a single forward pass at each step, which is lightweight enough for real-time deployment. The task is formulated as a sequential decision-making problem grounded in a bicycle model dynamics, enabling the agent to directly learn navigation policies that respect vehicle kinematics and environmental constraints in the closed-loop setting. A new benchmark is developed to support both training and evaluation, capturing diverse and challenging scenarios. Our approach achieves state-of-the-art success rates and efficiency, surpassing classical planner baselines by +96% in success rate and +52% in efficiency. Furthermore, we release our benchmark as an open-source resource for the community to foster future research in autonomous systems. The benchmark and accompanying tools are available at https://github.com/dqm5rtfg9b-collab/Constrained_Parking_Scenarios.
- Abstract(参考訳): 制約のある環境でのリアルタイムパスプランニングは、自律システムにとって依然として根本的な課題である。
伝統的な古典的プランナーは、完全な認識の前提の下では有効であるが、現実の知覚の制約に敏感であり、高い計算コストを発生させるオンライン検索手順に依存していることが多い。
複雑な環境では、これはリアルタイムのデプロイメントを禁止します。
これらの制約を克服するために,駐車場におけるリアルタイム経路計画のためのDeep Reinforcement Learning (DRL) フレームワークを導入する。
特に、多くの反転操作と調整を必要とする狭い空間を持つ挑戦的なシーンに焦点を当てる。
古典的なプランナーとは異なり、我々のソリューションは理想的で構造化された知覚を必要としないし、原理的には、ローカライゼーションやトラッキングといった追加モジュールの必要性を回避し、よりシンプルで実用的な実装をもたらす。
また、テスト時にポリシーは各ステップで1つのフォワードパスを通じてアクションを生成します。
このタスクは、自転車モデル力学に根ざしたシーケンシャルな意思決定問題として定式化され、クローズドループ設定における車両キネマティクスと環境制約を尊重するナビゲーションポリシーを直接学習することができる。
新しいベンチマークは、トレーニングと評価の両方をサポートし、多様で困難なシナリオをキャプチャするために開発されている。
提案手法は,従来のプランナーベースラインを,成功率+96%,効率+52%で越え,最先端の成功率と効率を達成する。
さらに,我々のベンチマークをコミュニティのオープンソースリソースとしてリリースし,自律システムにおける今後の研究を促進する。
ベンチマークと付属ツールはhttps://github.com/dqm5rtfg9b-collab/Constrained_Parking_Scenariosで公開されている。
関連論文リスト
- Steerable Adversarial Scenario Generation through Test-Time Preference Alignment [58.37104890690234]
対立シナリオ生成は、自律運転システムの安全性評価のためのコスト効率の良いアプローチである。
textbfSteerable textbfAdversarial scenario textbfGEnerator (SAGE) という新しいフレームワークを導入する。
SAGEは、逆境とリアリズムの間のトレードオフを、再トレーニングなしできめ細かいテストタイムコントロールを可能にします。
論文 参考訳(メタデータ) (2025-09-24T13:27:35Z) - LiloDriver: A Lifelong Learning Framework for Closed-loop Motion Planning in Long-tail Autonomous Driving Scenarios [23.913788819453796]
LiloDriverは、ロングテール自動運転シナリオにおけるクローズドループモーションプランニングのための生涯学習フレームワークである。
知覚、シーンエンコーディング、メモリベースの戦略改善、LLM誘導推論を含む4段階アーキテクチャを備えている。
本研究は、構造化メモリとLCM推論を組み合わせることで、現実の自律運転において、スケーラブルで人間ライクな動作計画を可能にすることの有効性を強調した。
論文 参考訳(メタデータ) (2025-05-22T18:33:08Z) - Centaur: Robust End-to-End Autonomous Driving with Test-Time Training [84.78837437133234]
我々は,手作業によるルールやコスト関数に頼ることなく,テストタイムトレーニングを通じてプランナーの行動を更新するCentaurを提案する。
本稿では,クラスタ・エントロピー(Cluster Entropy,クラスタ・エントロピー)と呼ばれる新しい不確実性尺度を開発した。
論文 参考訳(メタデータ) (2025-03-14T17:59:41Z) - HOPE: A Reinforcement Learning-based Hybrid Policy Path Planner for Diverse Parking Scenarios [24.25807334214834]
多様な複雑な駐車シナリオを扱うために,Hybrid pOlicy Path PlannEr(HOPE)を導入する。
HOPEは強化学習エージェントをReeds-Shepp曲線に統合し、多様なシナリオにまたがる効果的な計画を可能にする。
本稿では,空間および障害物分布に基づく駐車シナリオの難易度を分類するための基準を提案する。
論文 参考訳(メタデータ) (2024-05-31T02:17:51Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Planning to Practice: Efficient Online Fine-Tuning by Composing Goals in
Latent Space [76.46113138484947]
汎用ロボットは、現実世界の非構造環境において困難なタスクを完了するために、多様な行動レパートリーを必要とする。
この問題に対処するため、目標条件強化学習は、コマンド上の幅広いタスクの目標に到達可能なポリシーを取得することを目的としている。
本研究では,長期的課題に対する目標条件付き政策を実践的に訓練する手法であるPlanning to Practiceを提案する。
論文 参考訳(メタデータ) (2022-05-17T06:58:17Z) - Affordance-based Reinforcement Learning for Urban Driving [3.507764811554557]
経路点と低次元視覚表現を用いた最適制御ポリシーを学習するための深層強化学習フレームワークを提案する。
スクラッチから訓練されたエージェントは、車線追従のタスクを学習し、区間間を走り回り、密集した交通状況でも他のアクターや信号機の前で立ち止まることを実証する。
論文 参考訳(メタデータ) (2021-01-15T05:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。