論文の概要: A Survey of Reasoning in Autonomous Driving Systems: Open Challenges and Emerging Paradigms
- arxiv url: http://arxiv.org/abs/2603.11093v1
- Date: Wed, 11 Mar 2026 07:40:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.509024
- Title: A Survey of Reasoning in Autonomous Driving Systems: Open Challenges and Emerging Paradigms
- Title(参考訳): 自律運転システムにおける推論に関する調査 : オープンチャレンジと創発パラダイム
- Authors: Kejin Yu, Yuhan Sun, Taiqiang Wu, Ruixu Zhang, Zhiqiang Lin, Yuxin Meng, Junjie Wang, Yujiu Yang,
- Abstract要約: 私たちは、推論はモジュラーコンポーネントからシステムの認知コアに高めるべきだと論じています。
応答性推論のトレードオフやソーシャルゲーム推論など,7つの中核的推論課題を導出し,体系化する。
我々は,LLMに基づく推論と,ミリ秒スケールで安全クリティカルな車両制御の要求との間の,高レイテンシ,熟考的特性の根本的かつ未解決な緊張関係を同定する。
- 参考スコア(独自算出の注目度): 49.66022971508878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of high-level autonomous driving (AD) is shifting from perception-centric limitations to a more fundamental bottleneck, namely, a deficit in robust and generalizable reasoning. Although current AD systems manage structured environments, they consistently falter in long-tail scenarios and complex social interactions that require human-like judgment. Meanwhile, the advent of large language and multimodal models (LLMs and MLLMs) presents a transformative opportunity to integrate a powerful cognitive engine into AD systems, moving beyond pattern matching toward genuine comprehension. However, a systematic framework to guide this integration is critically lacking. To bridge this gap, we provide a comprehensive review of this emerging field and argue that reasoning should be elevated from a modular component to the system's cognitive core. Specifically, we first propose a novel Cognitive Hierarchy to decompose the monolithic driving task according to its cognitive and interactive complexity. Building on this, we further derive and systematize seven core reasoning challenges, such as the responsiveness-reasoning trade-off and social-game reasoning. Furthermore, we conduct a dual-perspective review of the state-of-the-art, analyzing both system-centric approaches to architecting intelligent agents and evaluation-centric practices for their validation. Our analysis reveals a clear trend toward holistic and interpretable "glass-box" agents. In conclusion, we identify a fundamental and unresolved tension between the high-latency, deliberative nature of LLM-based reasoning and the millisecond-scale, safety-critical demands of vehicle control. For future work, a primary objective is to bridge the symbolic-to-physical gap by developing verifiable neuro-symbolic architectures, robust reasoning under uncertainty, and scalable models for implicit social negotiation.
- Abstract(参考訳): 高レベル自動運転(AD)の開発は、知覚中心の限界から、より根本的なボトルネック、すなわち堅牢で一般化可能な推論の欠陥へとシフトしている。
現在のADシステムは構造化された環境を管理するが、人間のような判断を必要とする長い尾のシナリオや複雑な社会的相互作用に常に干渉する。
一方、大規模言語とマルチモーダルモデル(LLMsとMLLMs)の出現は、強力な認知エンジンをADシステムに統合する変革的な機会を示し、パターンマッチングを超えて真の理解へと移行する。
しかし、この統合を導くための体系的なフレームワークは、非常に欠落しています。
このギャップを埋めるために、我々はこの新興分野の包括的なレビューを提供し、推論はモジュラーコンポーネントからシステムの認知コアへ高めるべきだと主張している。
具体的には,モノリシックな運転課題を認知的・インタラクティブな複雑さに応じて分解する新しい認知階層を提案する。
これに基づいて、応答性推論やソーシャルゲーム推論といった7つの中核的推論課題を導出し、体系化する。
さらに、知的エージェントを設計するためのシステム中心のアプローチと評価中心のプラクティスの両方を検証し、最先端技術の両面的なレビューを行う。
分析の結果,総括的かつ解釈可能な「グラスボックス」エージェントの出現傾向が明らかとなった。
結論として, LLMに基づく推論の高レイテンシ, 熟考的性質と, 車両制御におけるミリ秒スケール, 安全クリティカルな要求との間に, 基本的かつ未解決の緊張関係を同定する。
今後の研究において、主要な目的は、検証可能なニューロシンボリックアーキテクチャ、不確実性の下での堅牢な推論、暗黙の社会的交渉のためのスケーラブルなモデルを開発することによって、シンボルと物理のギャップを埋めることである。
関連論文リスト
- The Path Ahead for Agentic AI: Challenges and Opportunities [4.52683540940001]
この章では、複雑な環境で自律的に動作するエージェントAIシステムの出現について考察する。
我々は、統計モデルからトランスフォーマーベースのシステムへのアーキテクチャの進歩を辿り、エージェントの振る舞いを可能にする能力を識別する。
既存の調査とは異なり、私たちは、言語理解から自律的な行動へのアーキテクチャの移行に注目し、デプロイ前に解決しなければならない技術的ギャップを強調します。
論文 参考訳(メタデータ) (2026-01-06T06:31:42Z) - From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Rational Superautotrophic Diplomacy (SupraAD); A Conceptual Framework for Alignment Based on Interdisciplinary Findings on the Fundamentals of Cognition [0.0]
ラショナル超独立外交(Rational Superautotrophic Diplomacy, SupraAD)は、アライメントのための理論的、学際的な概念的枠組みである。
認知システム分析と器質的合理性モデリングに着目する。
SupraADは、AIより前の課題としてアライメントを再構築し、十分に複雑で協調的なインテリジェンスを損なう。
論文 参考訳(メタデータ) (2025-06-03T17:28:25Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - SYMBIOSIS: Systems Thinking and Machine Intelligence for Better Outcomes in Society [0.0]
SYMBIOSISはAIを利用したフレームワークとプラットフォームで、システム思考が社会的な課題に対処できるように設計されている。
そこで我々は,複雑なシステム表現を自然言語に変換する生成コパイロットを開発した。
SYMBIOSISは、責任と社会中心のAIに関する将来の研究を解き放つための基礎的なステップとして機能することを目指している。
論文 参考訳(メタデータ) (2025-03-07T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。