論文の概要: Learning to Prioritize IT Tickets: A Comparative Evaluation of Embedding-based Approaches and Fine-Tuned Transformer Models
- arxiv url: http://arxiv.org/abs/2512.17916v1
- Date: Fri, 28 Nov 2025 16:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.046495
- Title: Learning to Prioritize IT Tickets: A Comparative Evaluation of Embedding-based Approaches and Fine-Tuned Transformer Models
- Title(参考訳): ITティケットの優先順位付けの学習 : 埋め込み型アプローチと微調整型トランスフォーマーモデルの比較評価
- Authors: Minh Tri LÊ, Ali Ait-Bachir,
- Abstract要約: ITサービス管理(ITSM)におけるサービスチケットの優先順位付けは、運用効率にとって重要であるが、依然として困難である。
チケット優先化のための2種類のアプローチとして,次元減少,クラスタリング,古典的一般化を組み合わせた埋め込み型パイプラインと,テキストおよび数値的特徴の両処理を行う微調整多言語変換器について評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prioritizing service tickets in IT Service Management (ITSM) is critical for operational efficiency but remains challenging due to noisy textual inputs, subjective writing styles, and pronounced class imbalance. We evaluate two families of approaches for ticket prioritization: embedding-based pipelines that combine dimensionality reduction, clustering, and classical classifiers, and a fine-tuned multilingual transformer that processes both textual and numerical features. Embedding-based methods exhibit limited generalization across a wide range of thirty configurations, with clustering failing to uncover meaningful structures and supervised models highly sensitive to embedding quality. In contrast, the proposed transformer model achieves substantially higher performance, with an average F1-score of 78.5% and weighted Cohen's kappa values of nearly 0.80, indicating strong alignment with true labels. These results highlight the limitations of generic embeddings for ITSM data and demonstrate the effectiveness of domain-adapted transformer architectures for operational ticket prioritization.
- Abstract(参考訳): ITサービス管理(ITSM)におけるサービスチケットの優先順位付けは、運用効率にとって重要であるが、ノイズの多いテキスト入力、主観的な書き込みスタイル、クラス不均衡が原因で依然として困難である。
チケットの優先順位付けには,次元の低減,クラスタリング,古典的分類器を組み合わせた埋め込み型パイプラインと,テキストと数値の両方の特徴を処理した微調整多言語変換器の2つのアプローチが考えられる。
埋め込みベースの手法は、30の幅広い構成において限定的な一般化を示し、クラスタリングは意味のある構造を明らかにすることができず、埋め込み品質に非常に敏感な教師付きモデルである。
対照的に、提案したトランスフォーマーモデルは、平均F1スコア78.5%、コーエンのカッパ値0.80を重み付けし、真のラベルとの強い整合性を示している。
これらの結果は,ITSデータに対する汎用的な埋め込みの限界を強調し,ドメイン適応型トランスフォーマーアーキテクチャのオペレーショナルチケット優先順位付けの有効性を示した。
関連論文リスト
- Advancing Text Classification with Large Language Models and Neural Attention Mechanisms [11.31737492247233]
このフレームワークには、テキストエンコーディング、コンテキスト表現モデリング、注意に基づく拡張、分類予測が含まれる。
その結果,提案手法はすべての指標において既存モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-12-10T09:18:41Z) - Auto-Rubric: Learning to Extract Generalizable Criteria for Reward Modeling [37.237020102873]
リワードモデルは、大規模言語モデルと人間の価値の整合に不可欠であるが、その開発はコストのかかる選好データセットと低い解釈可能性によって妨げられている。
検証誘導型 textbfPropose-Evaluate-Revise パイプラインを用いて,高品質でクエリ固有のルーリックを推論する,トレーニング不要のフレームワークを構築した。
わずか70の選好ペア(ソースデータの1.5%)を使用することで、Qwen3-8Bのようなより小型のモデルでも、専門的で完全に訓練されたモデルよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-10-20T09:01:37Z) - Optimizing Small Transformer-Based Language Models for Multi-Label Sentiment Analysis in Short Texts [4.166512373146747]
短文の感情分類における小さなトランスフォーマーモデルの有効性を評価する。
データを拡張することで分類性能が向上するのに対し、拡張データセットの事前トレーニングは精度を向上するよりもノイズを発生させる可能性があることを示す。
論文 参考訳(メタデータ) (2025-09-05T10:08:14Z) - Domain Adaptation via Feature Refinement [0.3867363075280543]
本稿では,分散シフト下での非教師付きドメイン適応のための簡易かつ効果的なフレームワークであるDAFR(Domain Adaptation via Feature Refinement)を提案する。
提案手法は, ラベルなし対象データを用いたバッチ正規化統計の適応, ソース学習モデルからの特徴蒸留, 仮説伝達の3つの重要な要素を組み合わせた。
論文 参考訳(メタデータ) (2025-08-22T06:32:19Z) - GLiClass: Generalist Lightweight Model for Sequence Classification Tasks [49.2639069781367]
本稿では,シーケンス分類タスクにGLiNERアーキテクチャを適用する新しい手法であるGLiClassを提案する。
提案手法は,ゼロショットおよび少数ショット学習シナリオに必要な柔軟性を維持しつつ,埋め込み方式に匹敵する高い精度と効率を実現する。
論文 参考訳(メタデータ) (2025-08-11T06:22:25Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Multi-Level Attention and Contrastive Learning for Enhanced Text Classification with an Optimized Transformer [0.0]
本稿では,テキスト分類タスクにおけるモデルの性能と効率を改善するために,改良されたトランスフォーマーに基づくテキスト分類アルゴリズムについて検討する。
改良されたTransformerモデルは、BiLSTM、CNN、標準Transformer、BERTといった比較モデルよりも、分類精度、F1スコア、リコールレートで優れている。
論文 参考訳(メタデータ) (2025-01-23T08:32:27Z) - Tensor Product Attention Is All You Need [61.3442269053374]
プロダクトアテンション(TPA)は、テンソル分解を使用してクエリ、キー、値をコンパクトに表現する新しいアテンションメカニズムである。
TPAは、メモリ効率とともに改善されたモデル品質を実現する。
TPAに基づいて,シーケンスモデリングのための新しいモデルアーキテクチャであるProducT ATTion Transformer (T6)を紹介する。
論文 参考訳(メタデータ) (2025-01-11T03:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。