論文の概要: Integrating Large Language Models for Severity Classification in Traffic Incident Management: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2403.13547v1
- Date: Wed, 20 Mar 2024 12:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 16:57:51.266629
- Title: Integrating Large Language Models for Severity Classification in Traffic Incident Management: A Machine Learning Approach
- Title(参考訳): 交通事故管理における重大度分類のための大規模言語モデルの統合:機械学習アプローチ
- Authors: Artur Grigorev, Khaled Saleh, Yuming Ou, Adriana-Simona Mihaita,
- Abstract要約: 本研究では,大規模言語モデルが交通事故管理における機械学習プロセスの強化に与える影響を評価する。
最新の言語モデルによって生成された特徴が、インシデントの深刻度を分類する際の予測精度を向上するか、一致させるかを検討する。
- 参考スコア(独自算出の注目度): 3.674863913115431
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study evaluates the impact of large language models on enhancing machine learning processes for managing traffic incidents. It examines the extent to which features generated by modern language models improve or match the accuracy of predictions when classifying the severity of incidents using accident reports. Multiple comparisons performed between combinations of language models and machine learning algorithms, including Gradient Boosted Decision Trees, Random Forests, and Extreme Gradient Boosting. Our research uses both conventional and language model-derived features from texts and incident reports, and their combinations to perform severity classification. Incorporating features from language models with those directly obtained from incident reports has shown to improve, or at least match, the performance of machine learning techniques in assigning severity levels to incidents, particularly when employing Random Forests and Extreme Gradient Boosting methods. This comparison was quantified using the F1-score over uniformly sampled data sets to obtain balanced severity classes. The primary contribution of this research is in the demonstration of how Large Language Models can be integrated into machine learning workflows for incident management, thereby simplifying feature extraction from unstructured text and enhancing or matching the precision of severity predictions using conventional machine learning pipeline. The engineering application of this research is illustrated through the effective use of these language processing models to refine the modelling process for incident severity classification. This work provides significant insights into the application of language processing capabilities in combination with traditional data for improving machine learning pipelines in the context of classifying incident severity.
- Abstract(参考訳): 本研究では,大規模言語モデルが交通事故管理における機械学習プロセスの強化に与える影響を評価する。
事故報告を用いて事故の重大度を分類する際に, 近代言語モデルによって生じる特徴がどの程度改善するか, あるいは予測精度に適合するかを検討する。
Gradient Boosted Decision Trees、Random Forests、Extreme Gradient Boostingなど、言語モデルと機械学習アルゴリズムの組み合わせによる複数の比較が行われた。
本研究は,テキストとインシデントレポートから得られた従来の言語モデルに基づく特徴と,それらの組み合わせを用いて重度分類を行う。
言語モデルとインシデントレポートから直接得られる特徴を組み込むことで、特にランダムフォレストやエクストリームグラディエント・ブースティング(Extreme Gradient Boosting)メソッドを使用する場合、インシデントに重大度を割り当てる機械学習技術のパフォーマンスを改善または少なくとも一致させることが示されている。
この比較は、一様にサンプリングされたデータセット上でF1スコアを用いて定量化し、バランスの取れた重大度クラスを得た。
この研究の主な貢献は、インシデント管理のための機械学習ワークフローにLarge Language Modelsを組み込む方法の実証である。
本研究の工学的応用は、これらの言語処理モデルを効果的に利用して、インシデント重大度分類のためのモデリングプロセスを洗練することによって説明される。
この研究は、インシデント重大度を分類するコンテキストにおいて、機械学習パイプラインを改善するために、従来のデータと組み合わせて、言語処理機能の適用に関する重要な洞察を提供する。
関連論文リスト
- A Text Classification Model Combining Adversarial Training with Pre-trained Language Model and neural networks: A Case Study on Telecom Fraud Incident Texts [0.0]
本稿では,事前学習型言語モデルとニューラルネットワークを併用したテキスト分類モデルを提案する。
このモデルは、運用部門が提供した通信不正事件データの一部をトレーニングすると、83.9%の分類精度を達成した。
論文 参考訳(メタデータ) (2024-11-11T07:52:38Z) - Assessing generalization capability of text ranking models in Polish [0.0]
Retrieval-augmented Generation (RAG) は、内部知識ベースと大規模言語モデルを統合する技術として、ますます人気が高まっている。
本稿では,ポーランド語におけるリランク問題に着目し,リランカーの性能について検討する。
私たちのモデルの中で最高のものは、ポーランド語で再ランク付けするための新しい最先端技術を確立し、最大30倍のパラメータを持つ既存のモデルよりも優れています。
論文 参考訳(メタデータ) (2024-02-22T06:21:41Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Improving the Cross-Lingual Generalisation in Visual Question Answering [40.86774711775718]
多言語視覚言語事前学習モデルは、非英語データに適用した場合、言語間一般化が不十分であることを示す。
本研究は、ゼロショット言語間視覚質問応答(VQA)タスクにおいて、これらのモデルの低性能について検討する。
我々は,(1)類似性に基づく損失によるクロスエントロピー損失を増大させる言語的事前目標を導入し,トレーニング中にモデルを導くこと,(2)言語的一般化を改善し,モデルの修正を伴わずに分散を低減するタスク固有のサブネットワークを学習すること,(3)合成コードを用いたトレーニング例を強化すること,の3つの戦略を用いて言語的事前移動を改善する。
論文 参考訳(メタデータ) (2022-09-07T08:07:43Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Cross-Lingual Adaptation for Type Inference [29.234418962960905]
弱い型付き言語間で深層学習に基づく型推論を行うための言語間適応フレームワークPLATOを提案する。
強く型付けされた言語からのデータを活用することで、PLATOは、バックボーンのクロスプログラミング言語モデルの難易度を改善する。
論文 参考訳(メタデータ) (2021-07-01T00:20:24Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction [107.8262586956778]
言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-06T20:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。