論文の概要: DriveCritic: Towards Context-Aware, Human-Aligned Evaluation for Autonomous Driving with Vision-Language Models
- arxiv url: http://arxiv.org/abs/2510.13108v1
- Date: Wed, 15 Oct 2025 03:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.4818
- Title: DriveCritic: Towards Context-Aware, Human-Aligned Evaluation for Autonomous Driving with Vision-Language Models
- Title(参考訳): DriveCritic: 視覚言語モデルを用いた自律運転のためのコンテキスト認識・人間対応評価
- Authors: Jingyu Song, Zhenxin Li, Shiyi Lan, Xinglong Sun, Nadine Chang, Maying Shen, Joshua Chen, Katherine A. Skinner, Jose M. Alvarez,
- Abstract要約: DriveCriticは、2つの重要なコントリビューションを特徴とする新しいフレームワークです。
データセットは、コンテキストが正しい判断に不可欠である、困難なシナリオのキュレートされたコレクションである。
DriveCriticモデルは、視覚的コンテキストとシンボル的コンテキストを統合することで、軌跡ペア間の調整を学ぶ。
- 参考スコア(独自算出の注目度): 24.168614747778538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Benchmarking autonomous driving planners to align with human judgment remains a critical challenge, as state-of-the-art metrics like the Extended Predictive Driver Model Score (EPDMS) lack context awareness in nuanced scenarios. To address this, we introduce DriveCritic, a novel framework featuring two key contributions: the DriveCritic dataset, a curated collection of challenging scenarios where context is critical for correct judgment and annotated with pairwise human preferences, and the DriveCritic model, a Vision-Language Model (VLM) based evaluator. Fine-tuned using a two-stage supervised and reinforcement learning pipeline, the DriveCritic model learns to adjudicate between trajectory pairs by integrating visual and symbolic context. Experiments show DriveCritic significantly outperforms existing metrics and baselines in matching human preferences and demonstrates strong context awareness. Overall, our work provides a more reliable, human-aligned foundation to evaluating autonomous driving systems.
- Abstract(参考訳): 人間の判断に合わせるための自律運転プランナーのベンチマークは依然として重要な課題であり、拡張予測ドライバモデルスコア(EPDMS)のような最先端のメトリクスには、ニュアンスのあるシナリオにおけるコンテキスト認識が欠如している。
この問題を解決するために、DriveCriticは、DriveCriticデータセットと、コンテキストが正しい判断に重要で、ペアワイズな人間の嗜好に注釈付けされた困難なシナリオのキュレートされたコレクションと、ビジョン・ランゲージ・モデル(VLM)ベースの評価器であるDriveCriticモデルという、2つの重要なコントリビューションを特徴とする新しいフレームワークを紹介した。
DriveCriticモデルは、2段階の教師付き強化学習パイプラインを使用して微調整を行い、視覚的コンテキストとシンボル的コンテキストを統合することで、軌道対の調整を学習する。
実験では、DriveCriticが人間の好みに合わせて既存のメトリクスやベースラインを著しく上回り、強いコンテキスト認識を示す。
全体として、私たちの仕事は、自律運転システムを評価するための、より信頼性が高く、人間に沿った基盤を提供します。
関連論文リスト
- Discrete Diffusion for Reflective Vision-Language-Action Models in Autonomous Driving [55.13109926181247]
離散拡散による安全な軌道生成のためのリフレクション機構を統合した学習ベースのフレームワークであるReflectDriveを紹介する。
我々のアプローチの中心は、勾配のない反復的な自己補正を行う、安全を意識した反射機構である。
本手法は目標条件付き軌道生成から始まり,マルチモーダル運転動作をモデル化する。
論文 参考訳(メタデータ) (2025-09-24T13:35:15Z) - ImagiDrive: A Unified Imagination-and-Planning Framework for Autonomous Driving [64.12414815634847]
ビジョン・ランゲージ・モデル(VLM)とドライビング・ワールド・モデル(DWM)は、この課題のさまざまな側面に対処する強力なレシピとして独立して登場した。
我々は、VLMベースの運転エージェントとDWMベースのシーン想像装置を統合した、新しいエンドツーエンドの自動運転フレームワークであるImagiDriveを提案する。
論文 参考訳(メタデータ) (2025-08-15T12:06:55Z) - StyleDrive: Towards Driving-Style Aware Benchmarking of End-To-End Autonomous Driving [7.525510086747996]
エンドツーエンド自動運転(E2EAD)の文脈では、パーソナライゼーションはほとんど見過ごされている。
パーソナライズされたE2EAD用に明示的にキュレートされた,最初の大規模実世界のデータセットを紹介する。
パーソナライズされたE2EADモデルを体系的に評価するための最初の標準ベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-06-30T15:48:38Z) - ReCogDrive: A Reinforced Cognitive Framework for End-to-End Autonomous Driving [49.07731497951963]
ReCogDriveは、エンドツーエンドの自動運転のための新しい強化認知フレームワークである。
我々は、人間のドライバーのシーケンシャルな認知過程を模倣する階層的なデータパイプラインを導入する。
次に、VLMの学習した運転先を拡散プランナーに注入することで、言語行動ミスマッチに対処する。
論文 参考訳(メタデータ) (2025-06-09T03:14:04Z) - OmniDrive: A Holistic Vision-Language Dataset for Autonomous Driving with Counterfactual Reasoning [68.45848423501927]
本稿では,エージェントモデルと3次元駆動タスクを対応づける総合的視覚言語データセットを提案する。
提案手法は,代替行動を検討する人間ドライバーと同様,潜在的なシナリオとその成果を評価することによって意思決定を促進する。
論文 参考訳(メタデータ) (2025-04-06T03:54:21Z) - Automated Evaluation of Large Vision-Language Models on Self-driving Corner Cases [102.05741859030951]
自動運転コーナーケースにおけるLVLMの自動評価のための最初のベンチマークであるCODA-LMを提案する。
テキストのみの大規模言語モデルを判断として使用すると、LVLMの判断よりも人間の好みとの整合性が向上することを示す。
CODA-VLM は GPT-4V を+21.42% 上回っても GPT-4V と相容れない性能を示した。
論文 参考訳(メタデータ) (2024-04-16T14:20:55Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。