論文の概要: CrashSage: A Large Language Model-Centered Framework for Contextual and Interpretable Traffic Crash Analysis
- arxiv url: http://arxiv.org/abs/2505.07853v1
- Date: Thu, 08 May 2025 00:23:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.223311
- Title: CrashSage: A Large Language Model-Centered Framework for Contextual and Interpretable Traffic Crash Analysis
- Title(参考訳): CrashSage: コンテキストと解釈可能なトラフィッククラッシュ分析のための大規模言語モデル中心フレームワーク
- Authors: Hao Zhen, Jidong J. Yang,
- Abstract要約: 道路事故は毎年130万人が死亡し、世界経済の損失は18兆ドルを超えたと主張している。
CrashSageは, 4つの重要なイノベーションを通じて, クラッシュ解析とモデリングを促進するために設計された, LLM(Large Language Model)中心のフレームワークである。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Road crashes claim over 1.3 million lives annually worldwide and incur global economic losses exceeding \$1.8 trillion. Such profound societal and financial impacts underscore the urgent need for road safety research that uncovers crash mechanisms and delivers actionable insights. Conventional statistical models and tree ensemble approaches typically rely on structured crash data, overlooking contextual nuances and struggling to capture complex relationships and underlying semantics. Moreover, these approaches tend to incur significant information loss, particularly in narrative elements related to multi-vehicle interactions, crash progression, and rare event characteristics. This study presents CrashSage, a novel Large Language Model (LLM)-centered framework designed to advance crash analysis and modeling through four key innovations. First, we introduce a tabular-to-text transformation strategy paired with relational data integration schema, enabling the conversion of raw, heterogeneous crash data into enriched, structured textual narratives that retain essential structural and relational context. Second, we apply context-aware data augmentation using a base LLM model to improve narrative coherence while preserving factual integrity. Third, we fine-tune the LLaMA3-8B model for crash severity inference, demonstrating superior performance over baseline approaches, including zero-shot, zero-shot with chain-of-thought prompting, and few-shot learning, with multiple models (GPT-4o, GPT-4o-mini, LLaMA3-70B). Finally, we employ a gradient-based explainability technique to elucidate model decisions at both the individual crash level and across broader risk factor dimensions. This interpretability mechanism enhances transparency and enables targeted road safety interventions by providing deeper insights into the most influential factors.
- Abstract(参考訳): 道路事故は毎年130万人が命を落とし、世界経済の損失は18兆ドルを超えると主張している。
このような深い社会的・経済的影響は、事故のメカニズムを解明し、実行可能な洞察を提供する道路安全研究の緊急の必要性を浮き彫りにしている。
従来の統計モデルとツリーアンサンブルのアプローチは、典型的には構造化されたクラッシュデータに依存し、文脈上のニュアンスを見下ろし、複雑な関係や基礎となる意味論を捉えるのに苦労する。
さらに、これらのアプローチは、特に多車種間相互作用、衝突進行、稀な事象の特徴に関連する物語要素において、重大な情報損失を引き起こす傾向にある。
CrashSageは, 4つの重要なイノベーションを通じて, クラッシュ解析とモデリングを促進するために設計された, LLM(Large Language Model)中心のフレームワークである。
まず、関係データ統合スキーマと組み合わせた表型からテキストへの変換戦略を導入し、本質的な構造的・関係的コンテキストを維持した、不均一な生のクラッシュデータのリッチな構造化された物語への変換を可能にする。
第2に,現実の整合性を維持しつつ,物語のコヒーレンスを改善するために,基本LLMモデルを用いた文脈認識データ拡張を適用した。
第3に,複数モデル(GPT-4o, GPT-4o-mini, LLaMA3-70B, GPT-4o-mini, LLaMA3-70B)を用いて, ゼロショット, チェーン・オブ・プルーピングによるゼロショット, 少数ショット学習など, ベースラインアプローチよりも優れた性能を示す。
最後に、個別のクラッシュレベルとより広いリスクファクター次元の両方でモデル決定を解明するために、勾配に基づく説明可能性手法を用いる。
この解釈可能性メカニズムは透明性を高め、最も影響力のある要因について深い洞察を提供することで、道路安全の介入を可能にする。
関連論文リスト
- Benchmarking the Spatial Robustness of DNNs via Natural and Adversarial Localized Corruptions [49.546479320670464]
本稿では,セグメンテーションモデルの空間的ロバスト性を評価するための特別な指標を紹介する。
本稿では,モデルロバスト性をより深く理解する手法として,地域対応型マルチアタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック分析を提案する。
その結果、モデルがこれらの2種類の脅威に異なる反応を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-04-02T11:37:39Z) - Fundamental Safety-Capability Trade-offs in Fine-tuning Large Language Models [92.38300626647342]
タスク固有のデータセット上でのLLM(Fun-tuning Large Language Model)は、LLMの第一の用途である。
本稿では,LLMファインチューニング戦略の安全性と能力の相互作用を理解するための理論的枠組みを提案する。
論文 参考訳(メタデータ) (2025-03-24T20:41:57Z) - MIRAGE: Multimodal Immersive Reasoning and Guided Exploration for Red-Team Jailbreak Attacks [85.3303135160762]
MIRAGEは、物語駆動型コンテキストとロール没入を利用して、マルチモーダル大規模言語モデルにおける安全性メカニズムを回避する新しいフレームワークである。
最先端のパフォーマンスを達成し、最高のベースラインよりも攻撃成功率を最大17.5%向上させる。
役割の浸漬と構造的セマンティック再構築は、モデル固有のバイアスを活性化し、モデルが倫理的保護に自発的に違反することを実証する。
論文 参考訳(メタデータ) (2025-03-24T20:38:42Z) - Enhancing Crash Frequency Modeling Based on Augmented Multi-Type Data by Hybrid VAE-Diffusion-Based Generative Neural Networks [13.402051372401822]
衝突頻度モデリングにおける重要な課題は、過剰なゼロ観測の頻度である。
我々は、ゼロ観測を減らすために、ハイブリッドなVAE拡散ニューラルネットワークを提案する。
我々は、類似性、正確性、多様性、構造的整合性といった指標を用いて、このモデルによって生成された合成データ品質を評価する。
論文 参考訳(メタデータ) (2025-01-17T07:53:27Z) - Feature Group Tabular Transformer: A Novel Approach to Traffic Crash Modeling and Causality Analysis [0.40964539027092917]
本研究では,複数のソースから融合した包括的データセットを用いて,衝突のタイプを予測する新しい手法を提案する。
我々のアプローチの中心は、異なるデータを有意な特徴群に整理する特徴群タブラルトランスフォーマー(FGTT)モデルの開発である。
FGTTモデルは、ランダムフォレスト、XGBoost、CatBoostなど、広く使われているツリーアンサンブルモデルと比較され、優れた予測性能を示している。
論文 参考訳(メタデータ) (2024-12-06T20:47:13Z) - Leveraging Large Language Models with Chain-of-Thought and Prompt Engineering for Traffic Crash Severity Analysis and Inference [24.565253576049024]
本研究では,3つの最新言語モデル(LLM)をクラッシュ重大度推定に利用することを検討した。
ドメイン知識を取り入れた事前構築テンプレートを用いて,元のトラフィッククラッシュデータからテキストナラティブを生成する。
事故原因を解析し,その重症度を推定する上で, LLM を導くためにChain-of-Thought (CoT) 推論を取り入れた。
論文 参考訳(メタデータ) (2024-08-04T17:14:10Z) - Learning Traffic Crashes as Language: Datasets, Benchmarks, and What-if Causal Analyses [76.59021017301127]
我々は,CrashEventという大規模トラフィッククラッシュ言語データセットを提案し,実世界のクラッシュレポート19,340を要約した。
さらに,クラッシュイベントの特徴学習を,新たなテキスト推論問題として定式化し,さらに様々な大規模言語モデル(LLM)を微調整して,詳細な事故結果を予測する。
実験の結果, LLMに基づくアプローチは事故の重大度を予測できるだけでなく, 事故の種類を分類し, 損害を予測できることがわかった。
論文 参考訳(メタデータ) (2024-06-16T03:10:16Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。