論文の概要: Case-based Reasoning Augmented Large Language Model Framework for Decision Making in Realistic Safety-Critical Driving Scenarios
- arxiv url: http://arxiv.org/abs/2506.20531v1
- Date: Wed, 25 Jun 2025 15:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.813628
- Title: Case-based Reasoning Augmented Large Language Model Framework for Decision Making in Realistic Safety-Critical Driving Scenarios
- Title(参考訳): ケースベース推論による大規模言語モデルフレームワークによる現実的安全批判運転シナリオの意思決定
- Authors: Wenbin Gan, Minh-Son Dao, Koji Zettsu,
- Abstract要約: 本稿では,ケースベース推論拡張大言語モデル(CBR-LLM)フレームワークを提案する。
本手法は,ダッシュカム映像からのセマンティックシーン理解と,関連する過去の運転事例の検索を統合する。
実験により、我々のフレームワークは意思決定の正確さ、品質の正当化、および人間の専門家の行動との整合性を改善することが示された。
- 参考スコア(独自算出の注目度): 1.5367554212163714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving in safety-critical scenarios requires quick, context-aware decision-making grounded in both situational understanding and experiential reasoning. Large Language Models (LLMs), with their powerful general-purpose reasoning capabilities, offer a promising foundation for such decision-making. However, their direct application to autonomous driving remains limited due to challenges in domain adaptation, contextual grounding, and the lack of experiential knowledge needed to make reliable and interpretable decisions in dynamic, high-risk environments. To address this gap, this paper presents a Case-Based Reasoning Augmented Large Language Model (CBR-LLM) framework for evasive maneuver decision-making in complex risk scenarios. Our approach integrates semantic scene understanding from dashcam video inputs with the retrieval of relevant past driving cases, enabling LLMs to generate maneuver recommendations that are both context-sensitive and human-aligned. Experiments across multiple open-source LLMs show that our framework improves decision accuracy, justification quality, and alignment with human expert behavior. Risk-aware prompting strategies further enhance performance across diverse risk types, while similarity-based case retrieval consistently outperforms random sampling in guiding in-context learning. Case studies further demonstrate the framework's robustness in challenging real-world conditions, underscoring its potential as an adaptive and trustworthy decision-support tool for intelligent driving systems.
- Abstract(参考訳): 安全クリティカルなシナリオでの運転には、状況理解と経験的推論の両方に根ざした、迅速かつコンテキスト対応の意思決定が必要です。
大きな言語モデル(LLM)とその強力な汎用推論能力は、そのような意思決定に有望な基盤を提供する。
しかし、これらの自律運転への直接的な適用は、ドメイン適応、文脈的基盤化、そして動的で高リスクな環境で信頼性と解釈可能な決定を行うために必要な経験的知識の欠如によって制限されている。
このギャップに対処するために,複雑なリスクシナリオにおける回避的意思決定のためのケースベース推論拡張大言語モデル(CBR-LLM)フレームワークを提案する。
提案手法は,ダッシュカム映像からのセマンティックシーンの理解と過去の運転事例の検索を融合し,LLMが文脈に敏感かつ人間に適応した操作レコメンデーションを生成する。
複数のオープンソースのLCMを対象とした実験により、我々のフレームワークは、意思決定の正確性、品質の正当化、そして人間の専門家の行動との整合性を改善する。
リスク認識促進戦略は、さまざまなリスクタイプにわたるパフォーマンスをさらに向上する一方、類似性に基づくケース検索は、コンテキスト内学習の指導において、ランダムサンプリングを一貫して上回る。
ケーススタディでは、現実世界の状況に挑戦する際のフレームワークの堅牢性をさらに証明し、インテリジェントな運転システムのための適応的で信頼性の高い意思決定支援ツールとしての可能性を強調している。
関連論文リスト
- Agentic LLM Framework for Adaptive Decision Discourse [2.4919169815423743]
本研究では,実世界のエージェント型大規模言語モデル(LLM)フレームワークを紹介する。
従来の意思決定支援ツールとは異なり、このフレームワークは対話、トレードオフ探索、エージェント間の相互作用によって生成される創発的なシナジーを強調している。
その結果、第1次探索がいかに堅牢で公平なレコメンデーションパスを育むかが明らかとなった。
論文 参考訳(メタデータ) (2025-02-16T03:46:37Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - SafeDrive: Knowledge- and Data-Driven Risk-Sensitive Decision-Making for Autonomous Vehicles with Large Language Models [14.790308656087316]
SafeDriveは、自律運転の安全性と適応性を高めるための、知識とデータ駆動型リスクに敏感な意思決定フレームワークである。
知識駆動型洞察と適応学習機構を統合することにより、不確実な条件下での堅牢な意思決定を保証する。
論文 参考訳(メタデータ) (2024-12-17T16:45:27Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Safety-aware Causal Representation for Trustworthy Offline Reinforcement
Learning in Autonomous Driving [33.672722472758636]
オフライン強化学習(RL)アプローチは、オフラインデータセットからのシーケンシャルな意思決定問題に対処する上で、顕著な効果を示す。
一般化可能なエンドツーエンド駆動ポリシの学習を容易にするために,saFety-aware strUctured Scenario representation (Fusion)を導入した。
様々な運転シナリオにおける実証的な証拠は、フュージョンが自律運転エージェントの安全性と一般化性を著しく向上させることを証明している。
論文 参考訳(メタデータ) (2023-10-31T18:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。