論文の概要: Improving Dialogue Breakdown Detection with Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2011.00136v1
- Date: Fri, 30 Oct 2020 23:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:09:21.209398
- Title: Improving Dialogue Breakdown Detection with Semi-Supervised Learning
- Title(参考訳): 半教師付き学習による対話障害検出の改善
- Authors: Nathan Ng and Marzyeh Ghassemi and Narendran Thangarajan and Jiacheng
Pan and Qi Guo
- Abstract要約: そこで本研究では,セミ教師あり学習手法を用いて対話分解の検出を改善することを提案する。
本研究は,DBDC(Dilogue Breakdown Detection Challenge)英語共有タスクにおいて,これらの手法の有効性を示す。
- 参考スコア(独自算出の注目度): 7.7914806980889875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building user trust in dialogue agents requires smooth and consistent
dialogue exchanges. However, agents can easily lose conversational context and
generate irrelevant utterances. These situations are called dialogue breakdown,
where agent utterances prevent users from continuing the conversation. Building
systems to detect dialogue breakdown allows agents to recover appropriately or
avoid breakdown entirely. In this paper we investigate the use of
semi-supervised learning methods to improve dialogue breakdown detection,
including continued pre-training on the Reddit dataset and a manifold-based
data augmentation method. We demonstrate the effectiveness of these methods on
the Dialogue Breakdown Detection Challenge (DBDC) English shared task. Our
submissions to the 2020 DBDC5 shared task place first, beating baselines and
other submissions by over 12\% accuracy. In ablations on DBDC4 data from 2019,
our semi-supervised learning methods improve the performance of a baseline BERT
model by 2\% accuracy. These methods are applicable generally to any dialogue
task and provide a simple way to improve model performance.
- Abstract(参考訳): 対話エージェントにユーザ信頼を構築するには、スムーズで一貫した対話交換が必要である。
しかし、エージェントは会話的なコンテキストを失い、無関係な発話を生成することができる。
これらの状況は対話分解と呼ばれ、エージェントの発話によってユーザーが会話を続けるのを防ぐ。
対話の破壊を検知するシステムを構築することにより、エージェントは適切に復旧するか、完全に破壊を避けることができる。
本稿では,Redditデータセットの事前学習や,多様体に基づくデータ拡張手法を含む,対話分解検出のための半教師付き学習手法について検討する。
本研究は,DBDC(Dilogue Breakdown Detection Challenge)英語共有タスクにおいて,これらの手法の有効性を示す。
2020 DBDC5への提出は、まずタスクの場所を共有し、ベースラインやその他の提出を12倍の精度で上回りました。
半教師付き学習法は,2019年のdbdc4データを用いたアブレーションにおいて,ベースラインbertモデルの性能を2\%精度で向上させる。
これらの手法は一般に任意の対話タスクに適用でき、モデル性能を改善するための簡単な方法を提供する。
関連論文リスト
- Injecting Salesperson's Dialogue Strategies in Large Language Models with Chain-of-Thought Reasoning [23.919423630938226]
SalesBotは、Chit-chatからタスク指向のシナリオへ移行し、セールスエージェントをトレーニングする対話をシミュレートする。
最初のデータはスムーズなトランジションとコヒーレントなロングターンダイアログを欠いていたため、セールス・カストマー相互作用の自然性が低かった。
営業担当者のインタラクションを学習し,チェーン・オブ・ソート(CoT)推論を用いた新しいモデル「SalesAgent」を紹介した。
論文 参考訳(メタデータ) (2024-04-29T10:12:04Z) - SuperDialseg: A Large-scale Dataset for Supervised Dialogue Segmentation [55.82577086422923]
文書地上対話の助けを借りて,対話のセグメンテーションポイントを実現可能な定義を提供する。
我々は,9,478の対話を含むSuperDialsegと呼ばれる大規模教師付きデータセットをリリースする。
また、対話セグメンテーションタスクの5つのカテゴリにまたがる18のモデルを含むベンチマークも提供する。
論文 参考訳(メタデータ) (2023-05-15T06:08:01Z) - CGoDial: A Large-Scale Benchmark for Chinese Goal-oriented Dialog
Evaluation [75.60156479374416]
CGoDialは、Goal指向のダイアログ評価のための、新しい挑戦的で包括的な中国のベンチマークである。
96,763のダイアログセッションと574,949のダイアログがすべて含まれており、異なる知識ソースを持つ3つのデータセットをカバーする。
学術ベンチマークと音声対話のシナリオのギャップを埋めるために、実際の会話からデータを収集したり、クラウドソーシングを通じて既存のデータセットに音声機能を追加する。
論文 参考訳(メタデータ) (2022-11-21T16:21:41Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Dual Task Framework for Debiasing Persona-grounded Dialogue Dataset [17.403065663306567]
我々は、ペルソナ条件の対話エージェントを改善するために、データ中心のアプローチを導入する。
具体的には,2つのタスクの原始的双対構造を活用することで,対話データセット/エージェントを改善するための関連するペルソナを強化する。
Persona-Chat の実験により,本手法は訓練済みの LM よりも精度が 11.7 ポイント向上していることが示された。
論文 参考訳(メタデータ) (2022-02-11T04:08:46Z) - Transferable Dialogue Systems and User Simulators [17.106518400787156]
対話システムのトレーニングの難しさの1つは、トレーニングデータの欠如である。
本稿では,対話システムとユーザシミュレータ間の対話を通して対話データを作成する可能性について検討する。
我々は,2つのエージェント間のセルフプレイを通じて,新たな対話シナリオを組み込むことのできるモデリングフレームワークを開発する。
論文 参考訳(メタデータ) (2021-07-25T22:59:09Z) - Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired
Data [61.71319905364992]
未ペアデータを利用したオープンドメイン対話モデルのトレーニングのための新しいデータ拡張手法を提案する。
データレベルの蒸留プロセスが最初に提案され、未確認データからポストとレスポンスの両方を検索する拡張ダイアログを構築する。
低品質の対話をフィルタリングするためにランキングモジュールが使用される。
モデルレベルの蒸留プロセスを用いて、高品質なペアデータに基づいて訓練された教師モデルを、強化された対話ペアに蒸留する。
論文 参考訳(メタデータ) (2020-09-20T13:06:38Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。