論文の概要: Expanding Chatbot Knowledge in Customer Service: Context-Aware Similar Question Generation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2410.12444v2
- Date: Wed, 19 Mar 2025 06:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:20:31.436467
- Title: Expanding Chatbot Knowledge in Customer Service: Context-Aware Similar Question Generation Using Large Language Models
- Title(参考訳): カスタマーサービスにおけるチャットボットの知識の拡張:大規模言語モデルを用いたコンテキスト認識類似質問生成
- Authors: Mengze Hong, Chen Jason Zhang, Di Jiang, Yuanfeng Song, Lu Wang, Yuanqin He, Zhiyang Su, Qing Li,
- Abstract要約: サービスチャットボットは、多様なクエリに対するタイムリーなレスポンスを提供することによって、カスタマーサポートを強化する上で重要な役割を果たす。
多様な顧客からの問い合わせを効果的に処理するためには、意味的一貫性と言語的多様性を維持するための同様の質問で知識ベースを強化することが不可欠である。
本稿では,Large Language Modelsを用いて類似の質問を生成し,知識ベース強化のための質問の最適サブセットを選択する手法を提案する。
- 参考スコア(独自算出の注目度): 19.131389732699365
- License:
- Abstract: Service chatbots play an important role in enhancing customer support by delivering timely responses to diverse queries. Traditionally, these chatbots rely on retrieval-based methods constrained by a predefined knowledge base of question-answer (QA) pairs to guarantee reliable responses. To effectively handle varied customer inquiries, augmenting the knowledge base with similar questions that maintain semantic consistency and linguistic variability is crucial. This paper presents methodologies for a novel approach that utilizes Large Language Models (LLMs) for generating similar questions and selecting an optimal subset of questions for knowledge base augmentation in industrial chatbots. Specifically, we define the SQG task in the context of LLM training and propose a one-to-many objective that incorporates contextual information. We also introduce an optimization framework that selects a diverse subset of similar questions within predefined resource constraints. Experimental results demonstrate significant improvements over traditional methods, achieving greater semantic diversity while aligning with source QA pairs, with over 120% relative improvement in meeting business-specific requirements with human evaluation. Combined with several best practices, we provide a robust, application-driven solution for enhancing chatbot performance and improving customer service satisfaction.
- Abstract(参考訳): サービスチャットボットは、多様なクエリに対するタイムリーな応答を提供することによって、カスタマーサポートを強化する上で重要な役割を果たす。
従来、これらのチャットボットは、信頼できる応答を保証するために、QAペアの事前定義された知識ベースによって制約された検索ベースの手法に依存していた。
多様な顧客からの問い合わせを効果的に処理するためには、意味的一貫性と言語的多様性を維持するための同様の質問で知識ベースを強化することが不可欠である。
本稿では,Large Language Models (LLMs) を用いて類似の質問を生成し,産業チャットボットにおける知識ベース強化のための質問の最適サブセットを選択する手法を提案する。
具体的には、SQGタスクをLLMトレーニングの文脈で定義し、文脈情報を含む1対多の目的を提案する。
また、事前定義されたリソース制約の中で、類似した質問の多様なサブセットを選択する最適化フレームワークも導入する。
実験の結果、従来の手法よりも大幅に改善され、ソースQAペアと整合しながら意味的多様性が向上し、人間による評価とビジネス固有の要件を満たす上で、120%以上の相対的な改善が達成された。
いくつかのベストプラクティスと組み合わせることで、チャットボットのパフォーマンスを高め、顧客サービスの満足度を向上させる、堅牢でアプリケーション駆動のソリューションを提供します。
関連論文リスト
- PerkwE_COQA: Enhanced Persian Conversational Question Answering by combining contextual keyword extraction with Large Language Models [0.8057006406834466]
本稿では,ペルシア語対話型質問応答システム(CQA)の性能向上のための新しい手法を提案する。
LLM(Large Language Models)と文脈キーワード抽出の長所を組み合わせる。
提案手法は,暗黙的な質問を効果的に処理し,文脈に関連のある回答を提示し,会話の文脈に大きく依存する複雑な質問に対処する。
論文 参考訳(メタデータ) (2024-04-08T11:14:58Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Diversify Question Generation with Retrieval-Augmented Style Transfer [68.00794669873196]
本稿では,検索型スタイル転送のためのフレームワーク RAST を提案する。
本研究の目的は,多様なテンプレートのスタイルを質問生成に活用することである。
多様性報酬と一貫性報酬の重み付けを最大化する新しい強化学習(RL)ベースのアプローチを開発する。
論文 参考訳(メタデータ) (2023-10-23T02:27:31Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - DialogQAE: N-to-N Question Answer Pair Extraction from Customer Service
Chatlog [34.69426306212259]
そこで,N-to-NQA抽出タスクを提案する。
5つのカスタマサービスデータセット上で良好に機能する、エンドツーエンドと2段階のバリエーションを備えた、生成的/識別的タグ付けベースの一連の方法を紹介します。
論文 参考訳(メタデータ) (2022-12-14T09:05:14Z) - How to Build Robust FAQ Chatbot with Controllable Question Generator? [5.680871239968297]
本稿では, セマンティックグラフを用いて, 高い品質, 多様性, 制御可能なサンプルを生成する手法を提案する。
流動的でセマンティックに生成されたQAペアは、我々の通過検索モデルをうまく騙すことができる。
生成されたデータセットは、新しいターゲット領域へのQAモデルの一般化性を向上させる。
論文 参考訳(メタデータ) (2021-11-18T12:54:07Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。