論文の概要: Efficient support ticket resolution using Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2501.00461v1
- Date: Tue, 31 Dec 2024 14:21:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:15:24.154727
- Title: Efficient support ticket resolution using Knowledge Graphs
- Title(参考訳): 知識グラフを用いた効率的な支援チケット解決
- Authors: Sherwin Varghese, James Tian,
- Abstract要約: 16万件以上の顧客のケースのレビューでは、簡単なソリューションが存在しないチケットのサブセットの約10%を解決するために、製品のサポートによって約90%の時間が費やされていることが示されています。
これらの困難なケースの多くは、"swarm"内で一緒に働く数人のエンジニアのサポートを必要とします。
本稿では,複数のデータソースからの知識グラフの埋め込みをモデル化する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A review of over 160,000 customer cases indicates that about 90% of time is spent by the product support for solving around 10% of subset of tickets where a trivial solution may not exist. Many of these challenging cases require the support of several engineers working together within a "swarm", and some also need to go to development support as bugs. These challenging customer issues represent a major opportunity for machine learning and knowledge graph that identifies the ideal engineer / group of engineers(swarm) that can best address the solution, reducing the wait times for the customer. The concrete ML task we consider here is a learning-to-rank(LTR) task that given an incident and a set of engineers currently assigned to the incident (which might be the empty set in the non-swarming context), produce a ranked list of engineers best fit to help resolve that incident. To calculate the rankings, we may consider a wide variety of input features including the incident description provided by the customer, the affected component(s), engineer ratings of their expertise, knowledge base article text written by engineers, response to customer text written by engineers, and historic swarming data. The central hypothesis test is that by including a holistic set of contextual data around which cases an engineer has solved, we can significantly improve the LTR algorithm over benchmark models. The article proposes a novel approach of modelling Knowledge Graph embeddings from multiple data sources, including the swarm information. The results obtained proves that by incorporating this additional context, we can improve the recommendations significantly over traditional machine learning methods like TF-IDF.
- Abstract(参考訳): 16万件以上の顧客のケースのレビューでは、簡単なソリューションが存在しないチケットのサブセットの約10%を解決するために、製品のサポートによって約90%の時間が費やされていることが示されている。
これらの難しいケースの多くは、"swarm"内で一緒に働くエンジニアのサポートを必要とします。
これらの挑戦的な顧客問題は、理想的なエンジニア/エンジニアグループ(swarm)を特定するマシンラーニングとナレッジグラフの大きな機会であり、ソリューションに最も対処し、顧客の待機時間を短縮します。
ここで私たちが考慮している具体的なMLタスクは、インシデントと現在インシデントに割り当てられているエンジニアのセット(これは非スワーミングコンテキストの空きセットかもしれない)が与えられた学習からランク(LTR)タスクであり、そのインシデントを解決するのに最適なエンジニアのランクリストを作成します。
ランク付けを計算するために、顧客が提供するインシデント記述、影響を受けるコンポーネント、技術者の専門性の評価、技術者による知識ベース記事テキスト、技術者による顧客テキストへの応答、歴史的スワーミングデータなど、幅広い入力機能を検討することができる。
中心的な仮説テストは、エンジニアが解決したケースを包含することで、ベンチマークモデルよりもLTRアルゴリズムを大幅に改善できるというものである。
本稿では,複数のデータソースからの知識グラフの埋め込みをモデル化する新しい手法を提案する。
その結果、この追加コンテキストを組み込むことで、TF-IDFのような従来の機械学習手法よりも大幅にリコメンデーションを改善できることが証明された。
関連論文リスト
- Knowledge Management for Automobile Failure Analysis Using Graph RAG [1.7873286684793546]
本稿では,RAGを用いた自動車故障解析のための知識管理システムを提案する。
RAGは大きな言語モデル(LLM)と知識グラフ(KG)を組み合わせる
元のQ&Aデータセットを用いて,提案手法で生成した文のROUGE F1スコアは,現行法と比較して平均157.6%向上した。
論文 参考訳(メタデータ) (2024-11-29T08:34:07Z) - Learning Task Decomposition to Assist Humans in Competitive Programming [90.4846613669734]
タスク分解学習のための新しい目的,いわゆる値(AssistV)を導入する。
我々は、さまざまな分解されたソリューションに対して、人間の修理経験のデータセットを収集する。
人間の177時間以内の研究では、非専門家が33.3%の問題を解き、それらを3.3倍スピードアップさせ、無支援の専門家にマッチさせる権限を与える。
論文 参考訳(メタデータ) (2024-06-07T03:27:51Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - PyRCA: A Library for Metric-based Root Cause Analysis [66.72542200701807]
PyRCAは、AIOps(AIOps)のためのRoot Cause Analysis(RCA)のオープンソースの機械学習ライブラリである。
複雑なメトリクス因果依存性を明らかにし、インシデントの根本原因を自動的に特定する、包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-20T09:55:10Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Supporting the Task-driven Skill Identification in Open Source Project
Issue Tracking Systems [0.0]
コントリビュータがコントリビュータのタスクを選択するのを支援するために,オープンイシュー戦略の自動ラベル付けについて検討する。
スキルを特定することで、コントリビュータ候補はより適切なタスクを選択するべきだ、と私たちは主張する。
本研究では,実験におけるラベルの関連性を定量的に分析し,戦略の相対的重要性を比較した。
論文 参考訳(メタデータ) (2022-11-02T14:17:22Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Engineering an Intelligent Essay Scoring and Feedback System: An
Experience Report [1.5168188294440734]
専門的な採用支援サービスの顧客から提供されるエッセイの質を評価するための探索システムについて述べる。
オープンエンドの顧客提供のソーステキストがあいまいさとエラーのかなりの範囲を持っているため、問題領域は困難です。
また、専門的なビジネスドメイン知識をインテリジェントな処理システムに組み込む必要もあります。
論文 参考訳(メタデータ) (2021-03-25T03:46:05Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - Understanding What Software Engineers Are Working on -- The Work-Item
Prediction Challenge [0.0]
ソフトウェアエンジニア(開発者、インシデント対応者、プロダクションエンジニアなど)が何に取り組んでいるのかを理解することは、難しい問題です。
本稿では,代表的シナリオを前提として,それに対応する「ワーク・イテム予測問題」について説明する。
論文 参考訳(メタデータ) (2020-04-13T19:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。