論文の概要: Risk-Aware World Model Predictive Control for Generalizable End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2602.23259v1
- Date: Thu, 26 Feb 2026 17:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.815755
- Title: Risk-Aware World Model Predictive Control for Generalizable End-to-End Autonomous Driving
- Title(参考訳): 一般化可能なエンド・ツー・エンド自動運転のためのリスク対応世界モデル予測制御
- Authors: Jiangxin Sun, Feng Xue, Teng Long, Chang Liu, Jian-Fang Hu, Wei-Shi Zheng, Nicu Sebe,
- Abstract要約: 「専門家のように運転するのが普通」は限定的な一般化に苦しむ。
E2E-ADシステムは専門家の行動監督なしに信頼できる判断を下せるか?
本稿では,リスクを意識した世界モデル予測制御という統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 82.69496624372944
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With advances in imitation learning (IL) and large-scale driving datasets, end-to-end autonomous driving (E2E-AD) has made great progress recently. Currently, IL-based methods have become a mainstream paradigm: models rely on standard driving behaviors given by experts, and learn to minimize the discrepancy between their actions and expert actions. However, this objective of "only driving like the expert" suffers from limited generalization: when encountering rare or unseen long-tail scenarios outside the distribution of expert demonstrations, models tend to produce unsafe decisions in the absence of prior experience. This raises a fundamental question: Can an E2E-AD system make reliable decisions without any expert action supervision? Motivated by this, we propose a unified framework named Risk-aware World Model Predictive Control (RaWMPC) to address this generalization dilemma through robust control, without reliance on expert demonstrations. Practically, RaWMPC leverages a world model to predict the consequences of multiple candidate actions and selects low-risk actions through explicit risk evaluation. To endow the world model with the ability to predict the outcomes of risky driving behaviors, we design a risk-aware interaction strategy that systematically exposes the world model to hazardous behaviors, making catastrophic outcomes predictable and thus avoidable. Furthermore, to generate low-risk candidate actions at test time, we introduce a self-evaluation distillation method to distill riskavoidance capabilities from the well-trained world model into a generative action proposal network without any expert demonstration. Extensive experiments show that RaWMPC outperforms state-of-the-art methods in both in-distribution and out-of-distribution scenarios, while providing superior decision interpretability.
- Abstract(参考訳): 模倣学習(IL)と大規模運転データセットの進歩により、エンドツーエンド自動運転(E2E-AD)は近年大きな進歩を遂げている。
モデルは専門家が与える標準的な運転行動に依存し、彼らの行動と専門家の行動の相違を最小限にすることを学ぶ。
しかし、「専門家のような運転のみ」というこの目的は、限定的な一般化に悩まされる: 専門家のデモンストレーションの配布外の稀な、あるいは見えないロングテールシナリオに遭遇した場合、モデルは、事前の経験がなければ、安全でない決定を下す傾向にある。
E2E-ADシステムは専門家の行動監督なしに信頼できる判断を下せるか?
そこで我々は,リスクを意識した世界モデル予測制御(RaWMPC)という統合フレームワークを提案する。
実際には、RaWMPCは、複数の候補アクションの結果を予測するために世界モデルを活用し、明示的なリスク評価を通じてリスクの低いアクションを選択する。
危険運転行動の結果を予測する能力を備えた世界モデルを実現するために,我々は,世界モデルを危険行動に体系的に公開し,破滅的な結果を予測可能かつ回避可能なリスク対応インタラクション戦略を設計する。
さらに,テスト時に低リスクな候補行動を生成するために,十分に訓練された世界モデルからリスク回避能力を抽出する自己評価蒸留法を,専門家による実証を伴わずに生成行動提案ネットワークに導入する。
大規模な実験により、RaWMPCは分配と分配の両シナリオにおいて最先端の手法よりも優れ、優れた意思決定の解釈性を提供することが示された。
関連論文リスト
- AD-R1: Closed-Loop Reinforcement Learning for End-to-End Autonomous Driving with Impartial World Models [75.214287449744]
我々は,Impartial World Modelを中心に構築されたポストトレーニング政策改善のためのフレームワークを紹介する。
私たちの主な貢献は、このモデルに危険について正直であることを教えることです。
大規模な実験を通じて、我々のモデルは失敗を予測する上で、ベースラインを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T13:57:24Z) - Enhancing End-to-End Autonomous Driving with Risk Semantic Distillaion from VLM [14.016225216093643]
リスクセマンティック蒸留(RSD)は、視覚言語モデル(VLM)を利用して、エンド・トゥ・エンド(E2E)自動運転バックボーンのトレーニングを強化する新しいフレームワークである。
具体的には、Vision-Language Models から Bird's-Eye-View (BEV) 機能への因果リスク推定を蒸留するプラグインモジュールである RiskHead を紹介する。
Bench2Driveベンチマーク実験では,複雑な運転条件と予測不可能な運転条件の管理におけるRSDの有効性を示した。
論文 参考訳(メタデータ) (2025-11-18T13:46:18Z) - INSIGHT: Enhancing Autonomous Driving Safety through Vision-Language Models on Context-Aware Hazard Detection and Edge Case Evaluation [7.362380225654904]
INSIGHTは、危険検出とエッジケース評価を強化するために設計された階層型視覚言語モデル(VLM)フレームワークである。
本手法は,マルチモーダルデータ融合を用いて意味表現と視覚表現を統合し,運転シナリオの正確な解釈を可能にする。
BDD100Kデータセットの実験結果は、既存のモデルよりもハザード予測の正確性と正確性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-02-01T01:43:53Z) - Learning Multiple Probabilistic Decisions from Latent World Model in Autonomous Driving [40.4491758280365]
自己回帰世界モデルは、堅牢な一般化能力を示すが、不確実性モデリングや自己導出が不十分なため、行動の導出に困難に直面する。
本研究では,環境の次状態とエゴ車両の動作を混合分布としてモデル化するフレームワークであるLatentDriverを提案する。
LatentDriverは最先端の強化学習と模倣学習を超越し、エキスパートレベルのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-24T04:26:24Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。