論文の概要: KnowVal: A Knowledge-Augmented and Value-Guided Autonomous Driving System
- arxiv url: http://arxiv.org/abs/2512.20299v1
- Date: Tue, 23 Dec 2025 12:08:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.862256
- Title: KnowVal: A Knowledge-Augmented and Value-Guided Autonomous Driving System
- Title(参考訳): KnowVal: 知識と価値を駆使した自動運転システム
- Authors: Zhongyu Xia, Wenhao Chen, Yongtao Wang, Ming-Hsuan Yang,
- Abstract要約: 視覚言語推論を可能にする新しい自律運転システムであるKnowValを提案する。
交通法則,防衛運転原則,倫理規範を符号化した総合運転知識グラフを構築した。
KnowVal は nuScene 上での衝突速度と Bench2Drive 上での最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 44.93698347738791
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual-language reasoning, driving knowledge, and value alignment are essential for advanced autonomous driving systems. However, existing approaches largely rely on data-driven learning, making it difficult to capture the complex logic underlying decision-making through imitation or limited reinforcement rewards. To address this, we propose KnowVal, a new autonomous driving system that enables visual-language reasoning through the synergistic integration of open-world perception and knowledge retrieval. Specifically, we construct a comprehensive driving knowledge graph that encodes traffic laws, defensive driving principles, and ethical norms, complemented by an efficient LLM-based retrieval mechanism tailored for driving scenarios. Furthermore, we develop a human-preference dataset and train a Value Model to guide interpretable, value-aligned trajectory assessment. Experimental results show that our method substantially improves planning performance while remaining compatible with existing architectures. Notably, KnowVal achieves the lowest collision rate on nuScenes and state-of-the-art results on Bench2Drive.
- Abstract(参考訳): 高度な自律運転システムには、視覚言語推論、運転知識、価値アライメントが不可欠である。
しかし、既存のアプローチはデータ駆動学習に大きく依存しているため、模倣や限定的な強化報酬を通じて、複雑な論理に基づく意思決定を捉えることは困難である。
そこで我々は,オープンワールド認識と知識検索の相乗的統合による視覚言語推論を可能にする,新しい自律運転システムであるKnowValを提案する。
具体的には、交通法則、防衛運転原則、倫理規範を符号化した総合運転知識グラフを構築し、運転シナリオに適した効率的なLCMベースの検索機構を補完する。
さらに、人間の嗜好データセットを開発し、価値モデルをトレーニングし、解釈可能な、価値に整合した軌道アセスメントを導出する。
実験の結果,既存のアーキテクチャとの互換性を維持しつつ,計画性能を大幅に向上することがわかった。
特に、KnowVal は nuScene 上での衝突速度が最低であり、Bench2Drive 上での最先端の結果が得られる。
関連論文リスト
- Discrete Diffusion for Reflective Vision-Language-Action Models in Autonomous Driving [55.13109926181247]
離散拡散による安全な軌道生成のためのリフレクション機構を統合した学習ベースのフレームワークであるReflectDriveを紹介する。
我々のアプローチの中心は、勾配のない反復的な自己補正を行う、安全を意識した反射機構である。
本手法は目標条件付き軌道生成から始まり,マルチモーダル運転動作をモデル化する。
論文 参考訳(メタデータ) (2025-09-24T13:35:15Z) - VLAD: A VLM-Augmented Autonomous Driving Framework with Hierarchical Planning and Interpretable Decision Process [40.3578745624081]
本稿では,VLM(Visual Language Models)を最先端のエンドツーエンドシステムと統合した視覚言語自律運転モデルを提案する。
モデルの空間的推論能力を改善するために特別に設計された質問応答データセットを用いて、特殊な微調整手法を実装した。
本システムは,従来のブラックボックス・エンド・ツー・エンドアーキテクチャの透明性と信頼性を高めるために,運転決定の解釈可能な自然言語説明を生成する。
論文 参考訳(メタデータ) (2025-07-02T01:52:40Z) - ReCogDrive: A Reinforced Cognitive Framework for End-to-End Autonomous Driving [49.07731497951963]
ReCogDriveは、エンドツーエンドの自動運転のための新しい強化認知フレームワークである。
我々は、人間のドライバーのシーケンシャルな認知過程を模倣する階層的なデータパイプラインを導入する。
次に、VLMの学習した運転先を拡散プランナーに注入することで、言語行動ミスマッチに対処する。
論文 参考訳(メタデータ) (2025-06-09T03:14:04Z) - SOLVE: Synergy of Language-Vision and End-to-End Networks for Autonomous Driving [51.47621083057114]
SOLVEは、ビジョンランゲージモデルとエンド・ツー・エンド(E2E)モデルを相乗化して自動運転車の計画を強化する革新的なフレームワークである。
提案手法は,VLMとE2Eコンポーネント間の包括的インタラクションを実現するために,共有ビジュアルエンコーダによる機能レベルでの知識共有を重視している。
論文 参考訳(メタデータ) (2025-05-22T15:44:30Z) - RAD: Retrieval-Augmented Decision-Making of Meta-Actions with Vision-Language Models in Autonomous Driving [10.984203470464687]
視覚言語モデル(VLM)は、空間認識の不十分さや幻覚といった限界に悩まされることが多い。
本稿では,自律走行シーンにおけるメタアクションを確実に生成するVLMの能力を高めるための,検索強化意思決定(RAD)フレームワークを提案する。
我々は,NuScenesデータセットから得られたデータセットに基づいてVLMを微調整し,その空間的知覚と鳥眼視画像理解能力を高める。
論文 参考訳(メタデータ) (2025-03-18T03:25:57Z) - Learning to Drive by Imitating Surrounding Vehicles [0.8902959815221526]
本研究では、周辺車両の観測軌道を利用したデータ拡張戦略を実証実験として検討する。
本稿では,情報的かつ多様な運転行動を優先する簡易な車両選択サンプリングとフィルタリング手法を提案する。
具体的には、このアプローチは衝突率を低減し、ベースラインと比較して安全性の指標を改善する。
論文 参考訳(メタデータ) (2025-03-08T00:40:47Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - LeapVAD: A Leap in Autonomous Driving via Cognitive Perception and Dual-Process Thinking [13.898774643126174]
LeapVADは、運転決定に影響を及ぼす重要な交通要素を特定し、焦点を合わせるための人間中心のメカニズムを実装している。
システムは、論理的推論を通じて駆動経験を蓄積する分析プロセス(System-II)と、微調整と少数ショット学習によってこの知識を洗練するヒューリスティックプロセス(System-I)から構成される。
論文 参考訳(メタデータ) (2025-01-14T14:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。