論文の概要: Enhancing Customer Service Chatbots with Context-Aware NLU through Selective Attention and Multi-task Learning
- arxiv url: http://arxiv.org/abs/2506.01781v1
- Date: Mon, 02 Jun 2025 15:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.577902
- Title: Enhancing Customer Service Chatbots with Context-Aware NLU through Selective Attention and Multi-task Learning
- Title(参考訳): 選択的注意とマルチタスク学習によるコンテキスト認識型NLUによるカスタマーサービスチャットボットの強化
- Authors: Subhadip Nandi, Neeraj Agrawal, Anshika Singh, Priyanka Bhatt,
- Abstract要約: 顧客意図を予測するためのコンテキスト認識型NLUモデルを提案する。
新規な選択的アテンションモジュールは、関連するコンテキスト特徴を抽出するために使用される。
当社では、Walmartのカスタマケアドメインの本番環境にモデルをデプロイしています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Customer service chatbots are conversational systems aimed at addressing customer queries, often by directing them to automated workflows. A crucial aspect of this process is the classification of the customer's intent. Presently, most intent classification models for customer care utilise only customer query for intent prediction. This may result in low-accuracy models, which cannot handle ambiguous queries. An ambiguous query like "I didn't receive my package" could indicate a delayed order, or an order that was delivered but the customer failed to receive it. Resolution of each of these scenarios requires the execution of very different sequence of steps. Utilizing additional information, such as the customer's order delivery status, in the right manner can help identify the intent for such ambiguous queries. In this paper, we have introduced a context-aware NLU model that incorporates both, the customer query and contextual information from the customer's order status for predicting customer intent. A novel selective attention module is used to extract relevant context features. We have also proposed a multi-task learning paradigm for the effective utilization of different label types available in our training data. Our suggested method, Multi-Task Learning Contextual NLU with Selective Attention Weighted Context (MTL-CNLU-SAWC), yields a 4.8% increase in top 2 accuracy score over the baseline model which only uses user queries, and a 3.5% improvement over existing state-of-the-art models that combine query and context. We have deployed our model to production for Walmart's customer care domain. Accurate intent prediction through MTL-CNLU-SAWC helps to better direct customers to automated workflows, thereby significantly reducing escalations to human agents, leading to almost a million dollars in yearly savings for the company.
- Abstract(参考訳): カスタマーサービスチャットボットは、顧客クエリに対処するための会話システムである。
このプロセスの重要な側面は、顧客の意図の分類である。
現在、顧客ケアのためのほとんどの意図分類モデルは、意図予測のための顧客クエリのみを活用している。
これは、曖昧なクエリを処理できない低精度モデルをもたらす可能性がある。
I didn't received my package"のような曖昧なクエリは、遅延した注文、あるいは納品された注文を示すことができたが、顧客はそれを受け取れなかった。
これらのシナリオの解決には、まったく異なるステップのシーケンスの実行が必要です。
顧客の注文の配送状況などの追加情報を適切な方法で利用することで、このようなあいまいなクエリの意図を特定するのに役立ちます。
本稿では,顧客意図を予測するために,顧客の注文状況からの顧客質問情報とコンテキスト情報の両方を組み込んだコンテキスト認識型NLUモデルを提案する。
新規な選択的アテンションモジュールは、関連するコンテキスト特徴を抽出するために使用される。
トレーニングデータから利用可能なラベルタイプを効果的に活用するためのマルチタスク学習パラダイムも提案した。
提案手法は,MTL-CNLU-SAWCを用いたマルチタスク学習コンテキストNLUにおいて,ユーザクエリのみを使用するベースラインモデルよりも4.8%,クエリとコンテキストを組み合わせた既存モデルよりも3.5%向上した。
当社では、Walmartのカスタマケアドメインの本番環境にモデルをデプロイしています。
MTL-CNLU-SAWCによる正確な意図予測は、顧客を自動化ワークフローに誘導するのに役立つ。
関連論文リスト
- You Are What You Bought: Generating Customer Personas for E-commerce Applications [22.012818753574905]
本稿では,顧客ペルソナの概念を紹介する。
顧客ペルソナは、特定の購入行動や嗜好の多面的かつ人間可読な特徴を提供する。
我々は,ペルソナをベースとした表現の性能を,レコメンデーションタスクや顧客セグメンテーションタスクの正確性と堅牢性の観点から評価する。
NDCG@KとF1-Score@Kの両面で、顧客のペルソナ表現の統合により、最先端のグラフベースのレコメンデーションモデルが最大12%向上することがわかった。
論文 参考訳(メタデータ) (2025-04-24T06:59:16Z) - Robust Uplift Modeling with Large-Scale Contexts for Real-time Marketing [6.511772664252086]
アップリフトモデリングは、対応するユーザを満たすために異なる処理(割引、ボーナスなど)を適用することで、この問題を解決するために提案される。
現実のシナリオでは、オンラインプラットフォーム(例えば、ショートビデオ、ニュース)で利用可能なリッチなコンテキストがあり、アップリフトモデルは各ユーザーにインセンティブを与える必要がある。
リアルタイムマーケティングのための大規模コンテキスト(UMLC)フレームワークを用いたモデルに依存しないロバスト昇降モデリングを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:55:50Z) - MAG-V: A Multi-Agent Framework for Synthetic Data Generation and Verification [5.666070277424383]
MAG-Vは、顧客のクエリを模倣する質問のデータセットを生成するフレームワークである。
我々の合成データは、実際の顧客クエリにおけるエージェントのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-11-28T19:36:11Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Cache & Distil: Optimising API Calls to Large Language Models [82.32065572907125]
ジェネレーティブAIツールの大規模デプロイは、ユーザクエリをフルフィルするために、LLM(Large Language Model)に対する高価なAPI呼び出しに依存することが多い。
これらの呼び出しの頻度を縮めるために、より小さな言語モデル(学生)を用いることができる。
この学生は、ユーザー要求の増加に独立して対処する能力が徐々に向上する。
論文 参考訳(メタデータ) (2023-10-20T15:01:55Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - A Semi-supervised Multi-task Learning Approach to Classify Customer
Contact Intents [6.267558847860381]
EコマースのWebサイト上で、顧客サポートサービスのためのテキストベースの意図分類モデルを構築します。
我々は、モデルをマルチクラス分類からセミ教師付きマルチタスク学習に進化させることにより、性能を著しく向上させる。
評価において、最終モデルは、ベースラインの微調整されたマルチクラス分類ALBERTモデルと比較して平均AUC ROCを約20ポイント向上させる。
論文 参考訳(メタデータ) (2021-06-10T16:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。