論文の概要: LIFT: Interpretable truck driving risk prediction with literature-informed fine-tuned LLMs
- arxiv url: http://arxiv.org/abs/2510.22333v1
- Date: Sat, 25 Oct 2025 15:37:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.101242
- Title: LIFT: Interpretable truck driving risk prediction with literature-informed fine-tuned LLMs
- Title(参考訳): LIFT:文学インフォームド微調整LDMを用いた解釈トラック運転リスク予測
- Authors: Xiao Hu, Yuansheng Lian, Ke Zhang, Yunxuan Li, Yuelong Su, Meng Li,
- Abstract要約: 本研究では,トラック走行リスク予測のための文学インフォームド微調整(LIFT)LLMを用いた解釈可能な予測フレームワークを提案する。
このフレームワークは、トラックの運転リスクを予測・説明するLLM駆動推論コア、ドメイン固有の文献を文献知識ベースにフィルタリング・要約する文芸処理パイプライン、予測性能とLIFT LLMの解釈可能性を評価する結果評価器を統合している。
- 参考スコア(独自算出の注目度): 11.199671771787193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes an interpretable prediction framework with literature-informed fine-tuned (LIFT) LLMs for truck driving risk prediction. The framework integrates an LLM-driven Inference Core that predicts and explains truck driving risk, a Literature Processing Pipeline that filters and summarizes domain-specific literature into a literature knowledge base, and a Result Evaluator that evaluates the prediction performance as well as the interpretability of the LIFT LLM. After fine-tuning on a real-world truck driving risk dataset, the LIFT LLM achieved accurate risk prediction, outperforming benchmark models by 26.7% in recall and 10.1% in F1-score. Furthermore, guided by the literature knowledge base automatically constructed from 299 domain papers, the LIFT LLM produced variable importance ranking consistent with that derived from the benchmark model, while demonstrating robustness in interpretation results to various data sampling conditions. The LIFT LLM also identified potential risky scenarios by detecting key combination of variables in truck driving risk, which were verified by PERMANOVA tests. Finally, we demonstrated the contribution of the literature knowledge base and the fine-tuning process in the interpretability of the LIFT LLM, and discussed the potential of the LIFT LLM in data-driven knowledge discovery.
- Abstract(参考訳): 本研究では,トラック走行リスク予測のための文学インフォームド微調整(LIFT)LLMを用いた解釈可能な予測フレームワークを提案する。
このフレームワークは、トラックの運転リスクを予測・説明するLLM駆動推論コア、ドメイン固有の文献を文献知識ベースにフィルタリング・要約する文芸処理パイプライン、予測性能とLIFT LLMの解釈可能性を評価する結果評価器を統合している。
現実世界のトラック運転リスクデータセットを微調整した後、LIFT LLMは正確なリスク予測を行い、26.7%のリコールと10.1%のF1スコアでベンチマークモデルを上回った。
さらに、文献知識ベースによって299のドメイン論文から自動的に構築され、LIFT LLMは、様々なデータサンプリング条件に対する解釈結果の堅牢性を示しながら、ベンチマークモデルから派生したものと整合した様々な重要度ランキングを作成した。
LIFT LLMはまた、PERMANOVAテストによって検証されたトラック運転リスクにおける変数のキーの組み合わせを検出することによって、潜在的なリスクシナリオも特定した。
最後に、LIFT LLMの解釈可能性に対する文献知識ベースと微調整プロセスの貢献を実証し、データ駆動知識発見におけるLIFT LLMの可能性について議論した。
関連論文リスト
- Towards Locally Deployable Fine-Tuned Causal Large Language Models for Mode Choice Behaviour [1.8262547855491453]
LiTransMCは、このタスクのために開発された最初の微調整因果LLMである。
提案した3つの選好データセットに対して,11個のオープンアクセスLDM (1-12Bパラメータ) をベンチマークした。
本稿では,話題モデリングのためのBERTopicを用いたモデル生成推論と,新しい説明力指標を提案する。
論文 参考訳(メタデータ) (2025-07-29T02:03:37Z) - Language Bottleneck Models: A Framework for Interpretable Knowledge Tracing and Beyond [55.984684518346924]
我々は、知識追跡を逆問題として再考する: 過去の回答を説明できる最小限の自然言語要約を学習し、将来の回答を予測できる。
我々のLanguage Bottleneck Model(LBM)は、解釈可能な知識要約を書くエンコーダLLMと、その要約テキストのみを使用して生徒の反応を再構成し予測しなければならないフリーズデコーダLLMで構成されている。
合成算術ベンチマークと大規模Eediデータセットの実験により、LBMは最先端のKT法と直接LLM法の精度に匹敵する一方で、受講者軌道のオーダーを少なくすることを示した。
論文 参考訳(メタデータ) (2025-06-20T13:21:14Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models [41.67393607081513]
大きな言語モデル(LLM)は、しばしば、彼らが持っている事実の知識を正確に表現するのに苦労する。
知識境界を表現するために不確実性推定を利用するUAlignフレームワークを提案する。
提案したUAlign は LLM の能力を大幅に向上させ,既知の疑問に自信を持って答えることができることを示す。
論文 参考訳(メタデータ) (2024-12-16T14:14:27Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - PertEval: Unveiling Real Knowledge Capacity of LLMs with Knowledge-Invariant Perturbations [22.011216436252845]
本稿では,大言語モデルの知識能力を探索するツールキットPertEvalを紹介する。
PertEvalは、静的ベンチマークからオンザフライテストサンプルを生成するために、人間のような再配置技術を採用している。
我々の発見は、より堅牢で真に理解できるLSMを前進させる洞察を与えてくれる。
論文 参考訳(メタデータ) (2024-05-30T06:38:32Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。