論文の概要: TransportAgents: a multi-agents LLM framework for traffic accident severity prediction
- arxiv url: http://arxiv.org/abs/2601.15519v1
- Date: Wed, 21 Jan 2026 23:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.442532
- Title: TransportAgents: a multi-agents LLM framework for traffic accident severity prediction
- Title(参考訳): TransportAgents:交通事故重大度予測のためのマルチエージェントLLMフレームワーク
- Authors: Zhichao Yang, Jiashu He, Jinxuan Fan, Cirillo Cinzia,
- Abstract要約: TransportAgentsは、カテゴリ固有のLSM推論と多層パーセプトロン(MLP)統合モジュールを統合するハイブリッドマルチエージェントフレームワークである。
米国内の2つのデータセットの実験では、TransportAgentsは従来の機械学習と高度なLCMベースのベースラインを一貫して上回っている。
このフレームワークは強力な堅牢性、スケーラビリティ、およびデータセット間の一般化性を示す。
- 参考スコア(独自算出の注目度): 1.4871782604215074
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate prediction of traffic crash severity is critical for improving emergency response and public safety planning. Although recent large language models (LLMs) exhibit strong reasoning capabilities, their single-agent architectures often struggle with heterogeneous, domain-specific crash data and tend to generate biased or unstable predictions. To address these limitations, this paper proposes TransportAgents, a hybrid multi-agent framework that integrates category-specific LLM reasoning with a multilayer perceptron (MLP) integration module. Each specialized agent focuses on a particular subset of traffic information, such as demographics, environmental context, or incident details, to produce intermediate severity assessments that are subsequently fused into a unified prediction. Extensive experiments on two complementary U.S. datasets, the Consumer Product Safety Risk Management System (CPSRMS) and the National Electronic Injury Surveillance System (NEISS), demonstrate that TransportAgents consistently outperforms both traditional machine learning and advanced LLM-based baselines. Across three representative backbones, including closed-source models such as GPT-3.5 and GPT-4o, as well as open-source models such as LLaMA-3.3, the framework exhibits strong robustness, scalability, and cross-dataset generalizability. A supplementary distributional analysis further shows that TransportAgents produces more balanced and well-calibrated severity predictions than standard single-agent LLM approaches, highlighting its interpretability and reliability for safety-critical decision support applications.
- Abstract(参考訳): 交通事故重大度の正確な予測は、緊急対応と公共安全計画の改善に不可欠である。
最近の大規模言語モデル(LLM)には強力な推論能力があるが、単一エージェントアーキテクチャは不均一でドメイン固有のクラッシュデータに悩まされ、バイアスや不安定な予測を生成する傾向がある。
これらの制約に対処するため,多層パーセプトロン(MLP)統合モジュールとカテゴリ固有のLCM推論を統合するハイブリッドマルチエージェントフレームワークであるTransportAgentsを提案する。
各専門エージェントは、人口統計、環境コンテキスト、インシデント詳細などの交通情報の特定のサブセットに焦点を当て、その後統合された予測に融合された中間重大度アセスメントを生成する。
消費者製品安全リスク管理システム(CPSRMS)と国家電子傷害監視システム(NEISS)の2つの補完的な米国データセットに対する大規模な実験は、TransportAgentsが従来の機械学習と高度なLCMベースのベースラインを一貫して上回っていることを実証している。
GPT-3.5やGPT-4oのようなクローズドソースモデルやLLaMA-3.3のようなオープンソースモデルを含む3つの代表的なバックボーンは、強力な堅牢性、スケーラビリティ、クロスデータセットの汎用性を示している。
さらに,TransportAgents は標準単エージェント LLM アプローチよりもバランスのとれた精度の予測を行い,安全性に重要な意思決定支援アプリケーションに対する解釈可能性と信頼性を強調した。
関連論文リスト
- Robustness of LLM-enabled vehicle trajectory prediction under data security threats [6.812902306426757]
大型言語モデル(LLM)は、周囲の車両からデータを収集・変換することで、車両軌跡や車線変更意図を正確に予測することができる。
本研究では,LLM対応車両軌道予測の系統的脆弱性解析を行うことにより,このギャップを解消する。
高Dデータセットの実験では、小さな、物理的に妥当な摂動でさえ、モデル出力を著しく破壊する可能性があることが明らかになった。
論文 参考訳(メタデータ) (2025-11-14T03:26:51Z) - When Safe Unimodal Inputs Collide: Optimizing Reasoning Chains for Cross-Modal Safety in Multimodal Large Language Models [50.66979825532277]
我々は、クロスモーダルチャレンジに適した解釈可能な推論パスを備えた最初のデータセットであるSSUI(Safe-Semantics-but-Unsafe-Interpretation)を紹介した。
新たなトレーニングフレームワークであるSRPO(Safety-Aware Reasoning Path Optimization)も、SSUIデータセットに基づいて設計されている。
実験の結果, SRPO学習モデルでは, キーセーフティベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2025-09-15T15:40:58Z) - Risk Analysis Techniques for Governed LLM-based Multi-Agent Systems [0.0]
本稿では,マルチエージェントAIシステムにおけるリスク識別と分析の初期段階について述べる。
信頼性障害のカスケード,エージェント間コミュニケーション障害,モノカルチャー崩壊,適合性バイアス,心の欠陥理論,混合モチベーションダイナミクスの6つの重要な障害モードについて検討した。
論文 参考訳(メタデータ) (2025-08-06T06:06:57Z) - MARBLE: A Multi-Agent Rule-Based LLM Reasoning Engine for Accident Severity Prediction [1.3102025155414727]
交通安全システムにおいて,事故重大度予測が重要な役割を担っている。
既存の方法はしばしばモノリシックモデルやブラックボックスプロンプトに依存している。
本稿では,多エージェントルールに基づくLLMエンジンを提案し,その重大性予測タスクを,専門的推論エージェントのチーム間で分解する。
論文 参考訳(メタデータ) (2025-07-07T11:27:49Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [74.16170899755281]
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
AgentBoardは、インクリメンタルな進歩と包括的な評価ツールキットをキャプチャする、きめ細かい進捗率のメトリクスを提供する。
これはLLMエージェントの能力と限界に光を当てるだけでなく、その性能の解釈可能性も最前線に広める。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。