論文の概要: Learning Dialogue Representations from Consecutive Utterances
- arxiv url: http://arxiv.org/abs/2205.13568v1
- Date: Thu, 26 May 2022 18:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 12:56:17.270400
- Title: Learning Dialogue Representations from Consecutive Utterances
- Title(参考訳): 連続発話から対話表現を学ぶ
- Authors: Zhihan Zhou, Dejiao Zhang, Wei Xiao, Nicholas Dingwall, Xiaofei Ma,
Andrew O. Arnold, Bing Xiang
- Abstract要約: 本稿では,自己指導型コントラスト学習手法である対話文埋め込み(DSE)を紹介する。
DSEは、対照的な学習のための正のペアと同じ対話の連続的な発話を取り、対話から学習する。
異なる意味的粒度の対話表現を調べる5つの下流対話課題についてDSEを評価する。
- 参考スコア(独自算出の注目度): 29.150589618130695
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning high-quality dialogue representations is essential for solving a
variety of dialogue-oriented tasks, especially considering that dialogue
systems often suffer from data scarcity. In this paper, we introduce Dialogue
Sentence Embedding (DSE), a self-supervised contrastive learning method that
learns effective dialogue representations suitable for a wide range of dialogue
tasks. DSE learns from dialogues by taking consecutive utterances of the same
dialogue as positive pairs for contrastive learning. Despite its simplicity,
DSE achieves significantly better representation capability than other dialogue
representation and universal sentence representation models. We evaluate DSE on
five downstream dialogue tasks that examine dialogue representation at
different semantic granularities. Experiments in few-shot and zero-shot
settings show that DSE outperforms baselines by a large margin. For example, it
achieves 13 average performance improvement over the strongest unsupervised
baseline in 1-shot intent classification on 6 datasets. We also provide
analyses on the benefits and limitations of our model.
- Abstract(参考訳): 高品質な対話表現を学ぶことは様々な対話指向タスクの解決に不可欠であり、特に対話システムはデータ不足に苦しむことが多い。
本稿では,多岐にわたる対話タスクに適した効果的な対話表現を学習する自己指導型コントラスト学習手法である対話文埋め込み(DSE)を提案する。
DSEは、対照的な学習のための正のペアと同じ対話の連続的な発話を取り、対話から学習する。
その単純さにもかかわらず、DSEは他の対話表現や普遍文表現モデルよりもはるかに優れた表現能力を達成する。
異なる意味的粒度の対話表現を調べる5つの下流対話課題についてDSEを評価する。
少数ショットとゼロショットの設定による実験では、DSEはベースラインを大きなマージンで上回っている。
例えば、6つのデータセット上の1ショットインテント分類において、最強の教師なしベースラインよりも13のパフォーマンス改善を実現している。
また、モデルの利点と限界についても分析します。
関連論文リスト
- DivTOD: Unleashing the Power of LLMs for Diversifying Task-Oriented Dialogue Representations [21.814490079113323]
汎用テキストで事前訓練された言語モデルは、様々な分野において印象的な成果を上げている。
しかし、タスク指向対話(TOD)の言語的特徴と一般的なテキストとの比較は、既存の言語モデルの実用性を制限している。
本研究では,多様なタスク指向の対話表現を学習するために,LLMと協調して対話事前学習モデルDivTODを提案する。
論文 参考訳(メタデータ) (2024-03-31T04:36:57Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension [42.57581945778631]
抽象的な対話要約は、自然言語処理における重要なスタンドアロンタスクとみなされてきた。
本稿では,新たな対話要約タスクであるSTRUctured DiaLoguE Summarizationを提案する。
変換器エンコーダ言語モデルの対話理解性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-24T04:39:54Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。