論文の概要: Unified Knowledge Prompt Pre-training for Customer Service Dialogues
- arxiv url: http://arxiv.org/abs/2208.14652v1
- Date: Wed, 31 Aug 2022 06:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:22:03.412099
- Title: Unified Knowledge Prompt Pre-training for Customer Service Dialogues
- Title(参考訳): 顧客サービス対話のための統一知識プロンプト事前学習
- Authors: Keqing He, Jingang Wang, Chaobo Sun, Wei Wu
- Abstract要約: 顧客サービス対話のための新しい統合知識事前学習フレームワークUFAを提案する。
我々は、顧客サービス対話のすべてのタスクを統一されたテキスト・テキスト生成タスクとして定式化する。
自然言語理解(NLU)と自然言語生成(NLG)のベンチマークにおいて,大幅な改善がなされている。
- 参考スコア(独自算出の注目度): 14.96556788113516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue bots have been widely applied in customer service scenarios to
provide timely and user-friendly experience. These bots must classify the
appropriate domain of a dialogue, understand the intent of users, and generate
proper responses. Existing dialogue pre-training models are designed only for
several dialogue tasks and ignore weakly-supervised expert knowledge in
customer service dialogues. In this paper, we propose a novel unified knowledge
prompt pre-training framework, UFA (\textbf{U}nified Model \textbf{F}or
\textbf{A}ll Tasks), for customer service dialogues. We formulate all the tasks
of customer service dialogues as a unified text-to-text generation task and
introduce a knowledge-driven prompt strategy to jointly learn from a mixture of
distinct dialogue tasks. We pre-train UFA on a large-scale Chinese customer
service corpus collected from practical scenarios and get significant
improvements on both natural language understanding (NLU) and natural language
generation (NLG) benchmarks.
- Abstract(参考訳): 対話ボットは、タイムリーでユーザフレンドリーなエクスペリエンスを提供するために、カスタマサービスシナリオに広く適用されています。
これらのボットは対話の適切なドメインを分類し、ユーザの意図を理解し、適切な応答を生成する必要がある。
既存の対話事前学習モデルは、いくつかの対話タスクのためにのみ設計され、顧客サービス対話における弱い監督された専門家知識を無視する。
本稿では,顧客サービス対話のための新しい統一知識プロンプト事前学習フレームワーク ufa (\textbf{u}nified model \textbf{f}or \textbf{a}ll tasks) を提案する。
顧客サービス対話の全てのタスクを統一されたテキスト対テキスト生成タスクとして定式化し、異なる対話タスクの混合から共同学習するための知識駆動のプロンプト戦略を導入する。
実践シナリオから収集した大規模中国語カスタマサービスコーパスにufaを事前トレーニングし,自然言語理解(nlu)と自然言語生成(nlg)のベンチマークで大幅な改善を行った。
関連論文リスト
- Exploring Knowledge Tracing in Tutor-Student Dialogues [53.52699766206808]
本稿では,教師と学生の対話における知識追跡(KT)の最初の試みについて述べる。
そこで本研究では,対話の各ターンに係わる知識コンポーネントやスキルを同定する手法を提案する。
次に,得られたラベル付きデータに様々なKT手法を適用し,対話全体を通して学生の知識レベルを追跡する。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Multi-User MultiWOZ: Task-Oriented Dialogues among Multiple Users [51.34484827552774]
マルチユーザMulti-User MultiWOZデータセットを2つのユーザと1つのエージェント間のタスク指向対話としてリリースする。
これらの対話は、タスク指向のシナリオにおける協調的な意思決定の興味深いダイナミクスを反映している。
本稿では,複数ユーザ間のタスク指向のチャットを簡潔なタスク指向のクエリとして書き換える,マルチユーザコンテキストクエリ書き換えの新しいタスクを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:12:07Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - DialogueBERT: A Self-Supervised Learning based Dialogue Pre-training
Encoder [19.51263716065853]
本稿では,人気のある事前学習型言語モデルBERTに基づく新しい文脈対話エンコーダ(ダイアログBERT)を提案する。
5つの自己教師型学習事前学習課題が,対話音声の特異性を学習するために考案された。
DialogueBERTは、実シナリオで7000万の対話で事前訓練され、3つの異なる下流対話理解タスクで微調整された。
論文 参考訳(メタデータ) (2021-09-22T01:41:28Z) - Dialogue-oriented Pre-training [70.03028879331339]
一般的なプレーンテキスト上での会話特徴をシミュレートする3つの手法を提案する。
Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整される。
論文 参考訳(メタデータ) (2021-06-01T12:02:46Z) - Topic-Oriented Spoken Dialogue Summarization for Customer Service with
Saliency-Aware Topic Modeling [61.67321200994117]
顧客サービスシステムでは、長い音声対話のための要約を作成することにより、対話要約はサービス効率を高めることができる。
本研究では,高度に抽象的な要約を生成するトピック指向の対話要約に注目した。
SATM(Saliency-Awareural topic Model)と併用し,顧客サービス対話のトピック指向要約を目的とした,新しいトピック拡張型2段階対話要約器(TDS)を提案する。
論文 参考訳(メタデータ) (2020-12-14T07:50:25Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z) - Conversation Learner -- A Machine Teaching Tool for Building Dialog
Managers for Task-Oriented Dialog Systems [57.082447660944965]
Conversation Learnerは、ダイアログマネージャを構築するための機械学習ツールである。
ダイアログ作成者が慣れ親しんだツールを使ってダイアログフローを作成し、ダイアログフローをパラメトリックモデルに変換することができる。
ユーザシステムダイアログをトレーニングデータとして活用することで、ダイアログ作成者が時間とともにダイアログマネージャを改善することができる。
論文 参考訳(メタデータ) (2020-04-09T00:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。