論文の概要: ZTRS: Zero-Imitation End-to-end Autonomous Driving with Trajectory Scoring
- arxiv url: http://arxiv.org/abs/2510.24108v1
- Date: Tue, 28 Oct 2025 06:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 17:50:20.177425
- Title: ZTRS: Zero-Imitation End-to-end Autonomous Driving with Trajectory Scoring
- Title(参考訳): ZTRS:軌道スコーリングによるゼロイミテーション終端自動運転
- Authors: Zhenxin Li, Wenhao Yao, Zi Wang, Xinglong Sun, Jingde Chen, Nadine Chang, Maying Shen, Jingyu Song, Zuxuan Wu, Shiyi Lan, Jose M. Alvarez,
- Abstract要約: ZTRS(Zero-Imitation End-to-End Autonomous Driving with Trajectory Scoring)は、情報を失うことなくセンサー入力と堅牢な計画のためのRLトレーニングという、両方の世界の強みを組み合わせたフレームワークである。
ZTRSは、Navtest、Navhard、HUGSIMの3つのベンチマークで強力なパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 52.195295396336526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end autonomous driving maps raw sensor inputs directly into ego-vehicle trajectories to avoid cascading errors from perception modules and to leverage rich semantic cues. Existing frameworks largely rely on Imitation Learning (IL), which can be limited by sub-optimal expert demonstrations and covariate shift during deployment. On the other hand, Reinforcement Learning (RL) has recently shown potential in scaling up with simulations, but is typically confined to low-dimensional symbolic inputs (e.g. 3D objects and maps), falling short of full end-to-end learning from raw sensor data. We introduce ZTRS (Zero-Imitation End-to-End Autonomous Driving with Trajectory Scoring), a framework that combines the strengths of both worlds: sensor inputs without losing information and RL training for robust planning. To the best of our knowledge, ZTRS is the first framework that eliminates IL entirely by only learning from rewards while operating directly on high-dimensional sensor data. ZTRS utilizes offline reinforcement learning with our proposed Exhaustive Policy Optimization (EPO), a variant of policy gradient tailored for enumerable actions and rewards. ZTRS demonstrates strong performance across three benchmarks: Navtest (generic real-world open-loop planning), Navhard (open-loop planning in challenging real-world and synthetic scenarios), and HUGSIM (simulated closed-loop driving). Specifically, ZTRS achieves the state-of-the-art result on Navhard and outperforms IL-based baselines on HUGSIM. Code will be available at https://github.com/woxihuanjiangguo/ZTRS.
- Abstract(参考訳): エンド・ツー・エンドの自律運転は、知覚モジュールからのカスケードエラーを回避し、リッチなセマンティック・キューを活用するために、生センサの入力を直接エゴ車軌道にマッピングする。
既存のフレームワークはImitation Learning(IL)に大きく依存している。
一方、Reinforcement Learning (RL) は近年、シミュレーションによるスケールアップの可能性を示しているが、通常は低次元のシンボル入力(例えば3Dオブジェクトやマップ)に限られており、生センサデータからの完全なエンドツーエンド学習には不足している。
ZTRS(Zero-Imitation End-to-End Autonomous Driving with Trajectory Scoring)は,情報を失うことなくセンサ入力とロバストな計画のためのRLトレーニングという,両世界の強みを組み合わせたフレームワークである。
我々の知る限りでは、ZTRSは、高次元センサデータを直接操作しながら報酬からのみ学習することで、ILを完全に排除する最初のフレームワークである。
ZTRSは,エミュータブルな行動と報酬に適した政策勾配の変種であるExhaustive Policy Optimization (EPO) を用いて,オフラインの強化学習を利用する。
ZTRSは、Navtest(ジェネリックな現実世界のオープンループ計画)、Navhard(現実世界と合成シナリオに挑戦するオープンループ計画)、HUGSIM(シミュレートされたクローズドループ駆動)の3つのベンチマークで強力なパフォーマンスを示している。
具体的には、ZTRSはNavhardの最先端の結果を達成し、HUGSIMのILベースのベースラインを上回っている。
コードはhttps://github.com/woxihuanjiangguo/ZTRS.comで入手できる。
関連論文リスト
- RAP: 3D Rasterization Augmented End-to-End Planning [104.52778241744522]
エンド・ツー・エンドの列車政策の模擬学習は、専門家によるデモンストレーションでのみ行われる。
アノテーション付きプリミティブの軽量化により、コストのかかるレンダリングを置き換える3Dラスタライゼーションを提案する。
RAPは最先端のクローズドループとロングテールロバスト性を実現し、4つの主要なベンチマークで第1位となった。
論文 参考訳(メタデータ) (2025-10-05T19:31:24Z) - Raw2Drive: Reinforcement Learning with Aligned World Models for End-to-End Autonomous Driving (in CARLA v2) [54.185249897842034]
強化学習(RL)は、模倣学習(IL)に固有の因果的混乱と分布変化を軽減することができる
RLをエンドツーエンドの自動運転(E2E-AD)に適用することは、その訓練の難しさにおいて未解決の問題である。
論文 参考訳(メタデータ) (2025-05-22T08:46:53Z) - RAD: Training an End-to-End Driving Policy via Large-Scale 3DGS-based Reinforcement Learning [54.52545900359868]
3DGSをベースとしたエンドツーエンド自動運転のためのクローズドループ強化学習フレームワークRADを提案する。
安全性を高めるため、我々は、安全クリティカルな事象に効果的に対応し、現実世界の因果関係を理解するために、政策の指針となる特別報酬を設計する。
IL法と比較して、RADは閉ループのほとんどの測定値において、特に3倍の衝突速度を示す。
論文 参考訳(メタデータ) (2025-02-18T18:59:21Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
本稿では,LAW(Latent World Model)を用いたエンドツーエンド運転のための自己教師型学習手法を提案する。
LAWは、現在の特徴とエゴ軌道に基づいて将来のシーン機能を予測する。
この自己監督タスクは、知覚のない、知覚に基づくフレームワークにシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Lite-HDSeg: LiDAR Semantic Segmentation Using Lite Harmonic Dense
Convolutions [2.099922236065961]
完全3ドルのLiDAR点雲のセマンティックセグメンテーションのための,新しいリアルタイム畳み込みニューラルネットワークLite-HDSegを提案する。
提案手法は,リアルタイムに動作可能な意味セグメンテーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-16T04:54:57Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。