論文の概要: Application and Evaluation of Large Language Models for Forecasting the Impact of Traffic Incidents
- arxiv url: http://arxiv.org/abs/2507.04803v1
- Date: Mon, 07 Jul 2025 09:22:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.353164
- Title: Application and Evaluation of Large Language Models for Forecasting the Impact of Traffic Incidents
- Title(参考訳): 交通事故の影響予測のための大規模言語モデルの適用と評価
- Authors: George Jagadeesh, Srikrishna Iyer, Michal Polanowski, Kai Xin Thia,
- Abstract要約: 本研究では,大規模言語モデル(LLM)の適用可能性について検討した。
本稿では,交通機能とLLM抽出インシデント機能の組み合わせによるインシデント影響を予測する,完全なLLMベースのソリューションを提案する。
実トラフィックインシデントデータセットを用いて、3つの高度なLCMと2つの最先端機械学習モデルの性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study examines the feasibility of applying large language models (LLMs) for forecasting the impact of traffic incidents on the traffic flow. The use of LLMs for this task has several advantages over existing machine learning-based solutions such as not requiring a large training dataset and the ability to utilize free-text incident logs. We propose a fully LLM-based solution that predicts the incident impact using a combination of traffic features and LLM-extracted incident features. A key ingredient of this solution is an effective method of selecting examples for the LLM's in-context learning. We evaluate the performance of three advanced LLMs and two state-of-the-art machine learning models on a real traffic incident dataset. The results show that the best-performing LLM matches the accuracy of the most accurate machine learning model, despite the former not having been trained on this prediction task. The findings indicate that LLMs are a practically viable option for traffic incident impact prediction.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)の適用可能性について検討した。
このタスクにLLMを使うことは、大規模なトレーニングデータセットを必要とせず、フリーテキストインシデントログを使用できるなど、既存の機械学習ベースのソリューションに対していくつかの利点がある。
本稿では,交通機能とLLM抽出インシデント機能の組み合わせによるインシデント影響を予測する,完全なLLMベースのソリューションを提案する。
このソリューションの重要な要素は、LLMのインコンテキスト学習の例を選択する効果的な方法である。
実トラフィックインシデントデータセットを用いて、3つの高度なLCMと2つの最先端機械学習モデルの性能を評価する。
その結果,最良性能のLLMは,この予測タスクの訓練を受けていないにもかかわらず,最も正確な機械学習モデルの精度と一致していることがわかった。
その結果, LLMは交通事故発生予測において, 現実的に有効な選択肢であることが示唆された。
関連論文リスト
- FisherSFT: Data-Efficient Supervised Fine-Tuning of Language Models Using Information Gain [14.109309236798518]
Supervised Fine-tuning (SFT) は、大規模言語モデル(LLM)を新しいドメインに適用するための標準的なアプローチである。
本研究では,SFTの統計的効率を向上させるために,学習例の有意なサブセットを選択する。
論文 参考訳(メタデータ) (2025-05-20T18:41:34Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [61.99353167168545]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - Multi-Objective Large Language Model Unlearning [3.372396620898397]
グラディエント・アセント(GA)は、対象データ上のモデルの予測確率を減少させるプロアクティブな方法である。
本稿では,多目的大規模言語モデル学習(MOLLM)アルゴリズムを提案する。
実験の結果,MLLM が SOTA GA をベースとした LLM アンラーニング法よりも非ラーニング効果とモデルユーティリティ保存の点で優れていたことが確認された。
論文 参考訳(メタデータ) (2024-12-29T09:35:56Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Harnessing Large Language Models as Post-hoc Correctors [6.288056740658763]
任意の機械学習モデルの予測に対する修正を提案するために,LLMがポストホックな修正器として機能することを示す。
我々は、データセットのラベル情報と、検証データセット上のMLモデルの予測を組み込むことで、文脈知識データベースを構築する。
テキスト解析と分子予測に関する実験結果から, モデルの性能が最大39%向上することが示唆された。
論文 参考訳(メタデータ) (2024-02-20T22:50:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。