論文の概要: CRASH: Cognitive Reasoning Agent for Safety Hazards in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.15364v1
- Date: Mon, 16 Mar 2026 14:39:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.493886
- Title: CRASH: Cognitive Reasoning Agent for Safety Hazards in Autonomous Driving
- Title(参考訳): CRASH:自律運転における安全障害に対する認知的推論エージェント
- Authors: Erick Silva, Rehana Yasmin, Ali Shoker,
- Abstract要約: 本研究は、NHTSAデータベースで報告された現実世界のAVインシデントを調べる。
我々は、標準化されたフィールドと非構造化の物語記述の両方を活用することで、クラッシュレポートの推論を自動化するエージェントであるCRASHを紹介する。
以上の結果から,CRASHは事故の64%が認識障害や計画失敗によるものと考えられた。
さらに5つのドメインエキスパートでCRASHを検証することで,AVシステム障害の原因となる精度を86%向上する。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AVs grow in complexity and diversity, identifying the root causes of operational failures has become increasingly complex. The heterogeneity of system architectures across manufacturers, ranging from end-to-end to modular designs, together with variations in algorithms and integration strategies, limits the standardization of incident investigations and hinders systematic safety analysis. This work examines real-world AV incidents reported in the NHTSA database. We curate a dataset of 2,168 cases reported between 2021 and 2025, representing more than 80 million miles driven. To process this data, we introduce CRASH, Cognitive Reasoning Agent for Safety Hazards, an LLM-based agent that automates reasoning over crash reports by leveraging both standardized fields and unstructured narrative descriptions. CRASH operates on a unified representation of each incident to generate concise summaries, attribute a primary cause, and assess whether the AV materially contributed to the event. Our findings show that (1) CRASH attributes 64% of incidents to perception or planning failures, underscoring the importance of reasoning-based analysis for accurate fault attribution; and (2) approximately 50% of reported incidents involve rear-end collisions, highlighting a persistent and unresolved challenge in autonomous driving deployment. We further validate CRASH with five domain experts, achieving 86% accuracy in attributing AV system failures. Overall, CRASH demonstrates strong potential as a scalable and interpretable tool for automated crash analysis, providing actionable insights to support safety research and the continued development of autonomous driving systems.
- Abstract(参考訳): AVが複雑さと多様性を増すにつれ、運用障害の根本原因を特定することはますます複雑になっている。
製造業者間のシステムアーキテクチャの不均一性は、エンドツーエンドからモジュラーデザインまで、アルゴリズムと統合戦略のバリエーションとともに、インシデント調査の標準化を制限し、系統的な安全分析を妨げる。
本研究は、NHTSAデータベースで報告された現実世界のAVインシデントを調べる。
私たちは2021年から2025年の間に報告された2,168件のデータセットをキュレートしました。
このデータを処理するために、標準フィールドと非構造記述の両方を活用することで、クラッシュレポートの推論を自動化するLLMベースのエージェントであるCRASH(Cognitive Reasoning Agent for Safety Hazards)を紹介する。
CRASHは、各インシデントを統一的に表現し、簡潔な要約を生成し、主要な原因とみなし、AVがイベントに実質的に寄与したかどうかを評価する。
以上の結果から,(1)CRASHは,事故の64%が認識障害や計画障害に起因していること,(2)事故の約50%が後方衝突を伴い,自動運転車の展開において永続的で未解決の課題が浮き彫りにされていることが示唆された。
さらに5つのドメインエキスパートでCRASHを検証することで,AVシステム障害の原因となる精度を86%向上する。
全体として、CRASHは、自動クラッシュ分析のためのスケーラブルで解釈可能なツールとして強力な可能性を示し、安全研究と自律運転システムの継続的な開発をサポートするための実用的な洞察を提供する。
関連論文リスト
- AD-R1: Closed-Loop Reinforcement Learning for End-to-End Autonomous Driving with Impartial World Models [75.214287449744]
我々は,Impartial World Modelを中心に構築されたポストトレーニング政策改善のためのフレームワークを紹介する。
私たちの主な貢献は、このモデルに危険について正直であることを教えることです。
大規模な実験を通じて、我々のモデルは失敗を予測する上で、ベースラインを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T13:57:24Z) - Enhancing reliability in AI inference services: An empirical study on real production incidents [6.549475714716768]
本稿では,大規模言語モデル(LLM)推論インシデントに関する最初のプロバイダ間,実践ベースの分析手法を提案する。
我々は1年間の運用経験に基づく分類と方法論を開発し、156件の高重度事象を検証した。
本研究は,推論操作の系統的,経験的基礎解析が,大規模で信頼性が高く,コスト効率のよいLLMサービスを実現する方法を示す。
論文 参考訳(メタデータ) (2025-10-17T23:16:29Z) - From Narratives to Probabilistic Reasoning: Predicting and Interpreting Drivers' Hazardous Actions in Crashes Using Large Language Model [3.3457493284891338]
2車線の事故は、道路事故の約70%を占める。
Driver Hazardous Action (DHA)データは、一貫性のない、労働集約的な手動コーディングプラクティスによって制限される。
本稿では,微調整された大規模言語モデルを利用して,テキストによるクラッシュ物語からDHAを自動的に推測する,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-14T21:35:47Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - UniSTPA: A Safety Analysis Framework for End-to-End Autonomous Driving [10.063740202765343]
我々はUnified System Theoretic Process Analysis (UniSTPA)フレームワークを提案する。
UniSTPAはコンポーネントレベルだけでなく、モデルの内部レイヤ内でもハザード分析を行います。
提案手法は,エンド・ツー・エンドの自動運転システムの安全開発と展開のための理論的および実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-05-21T01:23:31Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Learning Traffic Crashes as Language: Datasets, Benchmarks, and What-if Causal Analyses [76.59021017301127]
我々は,CrashEventという大規模トラフィッククラッシュ言語データセットを提案し,実世界のクラッシュレポート19,340を要約した。
さらに,クラッシュイベントの特徴学習を,新たなテキスト推論問題として定式化し,さらに様々な大規模言語モデル(LLM)を微調整して,詳細な事故結果を予測する。
実験の結果, LLMに基づくアプローチは事故の重大度を予測できるだけでなく, 事故の種類を分類し, 損害を予測できることがわかった。
論文 参考訳(メタデータ) (2024-06-16T03:10:16Z) - Towards Automated Driving Violation Cause Analysis in Scenario-Based
Testing for Autonomous Driving Systems [22.872694649245044]
本稿では,運転違反原因分析(DVCA)ツールを提案する。
本ツールでは, 完全コンポーネントレベルの属性精度(100%), ほぼ完全なメッセージレベルの精度(>98%)を実現する。
論文 参考訳(メタデータ) (2024-01-19T01:12:37Z) - ACAV: A Framework for Automatic Causality Analysis in Autonomous Vehicle
Accident Recordings [5.578446693797519]
近年の死者は、大規模な検査による安全性検証の重要性を強調している。
本稿では,AV事故記録の因果解析を行うための自動フレームワークACAVを提案する。
我々はアポロADSでACAVを評価し、110件の事故記録の93.64%で5種類の因果事象を特定できることを発見した。
論文 参考訳(メタデータ) (2024-01-13T12:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。