論文の概要: Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering
- arxiv url: http://arxiv.org/abs/2404.17723v2
- Date: Mon, 6 May 2024 05:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 22:37:13.477739
- Title: Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering
- Title(参考訳): 顧客サービス質問回答のための知識グラフを用いた検索拡張生成
- Authors: Zhentao Xu, Mark Jerome Cruz, Matthew Guevara, Tie Wang, Manasi Deshpande, Xiaofeng Wang, Zheng Li,
- Abstract要約: 知識グラフ(KG)とRAGを併用する新しい顧客サービス質問回答手法を提案する。
質問応答フェーズにおいて,提案手法は消費者問合せを解析し,関連する部分グラフをKGから検索し,回答を生成する。
当社のメソッドはLinkedInのカスタマーサービスチーム内で約6ヶ月にわたってデプロイされ、イシュー毎の解決時間の中央値が28.6%削減された。
- 参考スコア(独自算出の注目度): 9.30282613025355
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In customer service technical support, swiftly and accurately retrieving relevant past issues is critical for efficiently resolving customer inquiries. The conventional retrieval methods in retrieval-augmented generation (RAG) for large language models (LLMs) treat a large corpus of past issue tracking tickets as plain text, ignoring the crucial intra-issue structure and inter-issue relations, which limits performance. We introduce a novel customer service question-answering method that amalgamates RAG with a knowledge graph (KG). Our method constructs a KG from historical issues for use in retrieval, retaining the intra-issue structure and inter-issue relations. During the question-answering phase, our method parses consumer queries and retrieves related sub-graphs from the KG to generate answers. This integration of a KG not only improves retrieval accuracy by preserving customer service structure information but also enhances answering quality by mitigating the effects of text segmentation. Empirical assessments on our benchmark datasets, utilizing key retrieval (MRR, Recall@K, NDCG@K) and text generation (BLEU, ROUGE, METEOR) metrics, reveal that our method outperforms the baseline by 77.6% in MRR and by 0.32 in BLEU. Our method has been deployed within LinkedIn's customer service team for approximately six months and has reduced the median per-issue resolution time by 28.6%.
- Abstract(参考訳): カスタマーサービス技術サポートでは、顧客からの問い合わせを効率的に解決するために、過去の問題を迅速かつ正確に検索することが重要である。
大規模言語モデル(LLM)の検索強化生成(RAG)における従来の検索手法は,過去の発行追跡チケットの大量のコーパスをプレーンテキストとして扱い,重要な発行内構造や,性能を制限した発行間関係を無視している。
本稿では,知識グラフ(KG)とRAGを併用する新しい顧客サービス質問回答手法を提案する。
本手法は, 歴史的問題からKGを抽出し, 発行内構造と発行間関係を維持する。
質問応答フェーズにおいて,提案手法は消費者問合せを解析し,関連する部分グラフをKGから検索し,回答を生成する。
このKGの統合は、顧客サービス構造情報を保存することによって検索精度を向上するだけでなく、テキストセグメンテーションの効果を緩和して回答品質を向上させる。
提案手法は,キー検索(MRR, Recall@K, NDCG@K)とテキスト生成(BLEU, ROUGE, METEOR)のメトリクスを用いて,ベンチマークデータセットの実証評価を行い,MRRでは77.6%,BLEUでは0.32倍の精度でベースラインを達成できた。
当社のメソッドはLinkedInのカスタマーサービスチーム内で約6ヶ月にわたってデプロイされ、イシュー毎の解決時間の中央値が28.6%削減された。
関連論文リスト
- Optimization of Retrieval-Augmented Generation Context with Outlier Detection [0.0]
そこで本研究では,質問応答システムに必要な文脈の小型化と品質向上に焦点をあてる。
私たちのゴールは、最も意味のあるドキュメントを選択し、捨てられたドキュメントをアウトリーチとして扱うことです。
その結果,質問や回答の複雑さを増大させることで,最大の改善が達成された。
論文 参考訳(メタデータ) (2024-07-01T15:53:29Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - STaRK: Benchmarking LLM Retrieval on Textual and Relational Knowledge Bases [93.96463520716759]
テキストとKのガベージベース上での大規模半構造検索ベンチマークSTARKを開発する。
本ベンチマークでは, 製品検索, 学術論文検索, 精密医療におけるクエリの3分野を対象とする。
多様なリレーショナル情報と複雑なテキスト特性を統合した,現実的なユーザクエリを合成する,新しいパイプラインを設計する。
論文 参考訳(メタデータ) (2024-04-19T22:54:54Z) - Corrective Retrieval Augmented Generation [39.371798735872865]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z) - Decomposing Complex Queries for Tip-of-the-tongue Retrieval [72.07449449115167]
複雑なクエリは、コンテンツ要素(例えば、書籍の文字やイベント)、ドキュメントテキスト以外の情報を記述する。
この検索設定は舌の先端 (TOT) と呼ばれ、クエリと文書テキスト間の語彙的および意味的重複に依存するモデルでは特に困難である。
クエリを個別のヒントに分解し、サブクエリとしてルーティングし、特定の検索者にルーティングし、結果をアンサンブルすることで、このような複雑なクエリを扱うための、シンプルで効果的なフレームワークを導入します。
論文 参考訳(メタデータ) (2023-05-24T11:43:40Z) - KG-ECO: Knowledge Graph Enhanced Entity Correction for Query Rewriting [15.243664083941287]
本稿では,KG-ECO: Knowledge Graphによるクエリ書き換えのためのEntity Correctionの強化を提案する。
モデルの性能を向上させるため,我々は知識グラフ(KG)を組み込んでエンティティ構造情報を提供する。
実験結果から,本手法は2つのベースラインに対して明らかな性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-02-21T05:42:06Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Query-Specific Knowledge Graphs for Complex Finance Topics [6.599344783327053]
ドメインの専門家が挑戦的な質問を作成できるCODECデータセットに重点を置いています。
最先端のランキングシステムには改善の余地があることが示される。
実体と文書の関連性は正の相関関係にあることを示す。
論文 参考訳(メタデータ) (2022-11-08T10:21:13Z) - Improving Conversational Recommendation Systems' Quality with
Context-Aware Item Meta Information [42.88448098873448]
対話レコメンデーションシステム(CRS)は,対話履歴からユーザの好みを推測することでユーザと対話する。
従来のCRSでは、知識グラフ(KG)ベースのレコメンデーションモジュールを使用し、応答生成のための言語モデルとKGを統合する。
本稿では,事前学習言語モデル(PLM)と項目メタデータエンコーダを組み合わせた,シンプルで効果的なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T14:12:48Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。