論文の概要: Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction
- arxiv url: http://arxiv.org/abs/2303.05034v1
- Date: Thu, 9 Mar 2023 04:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:14:05.409336
- Title: Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction
- Title(参考訳): 対話インテント誘導のための多段階粗相関学習
- Authors: Caiyuan Chu, Ya Li, Yifan Liu, Jia-Chen Gu, Quan Liu, Yongxin Ge,
Guoping Hu
- Abstract要約: 本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話における会話からのインテントインジェクションの追跡方法について述べる。
意図的クラスタリングの本質は、異なる対話発話の表現を区別することにある。
DSTC11の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
- 参考スコア(独自算出の注目度): 34.25242109800481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent recognition is critical for task-oriented dialogue systems. However,
for emerging domains and new services, it is difficult to accurately identify
the key intent of a conversation due to time-consuming data annotation and
comparatively poor model transferability. Therefore, the automatic induction of
dialogue intention is very important for intelligent dialogue systems. This
paper presents our solution to Track 2 of Intent Induction from Conversations
for Task-Oriented Dialogue at the Eleventh Dialogue System Technology Challenge
(DSTC11). The essence of intention clustering lies in distinguishing the
representation of different dialogue utterances. The key to automatic intention
induction is that, for any given set of new data, the sentence representation
obtained by the model can be well distinguished from different labels.
Therefore, we propose a multi-stage coarse-to-fine contrastive learning model
training scheme including unsupervised contrastive learning pre-training,
supervised contrastive learning pre-training, and fine-tuning with joint
contrastive learning and clustering to obtain a better dialogue utterance
representation model for the clustering task. In the released DSTC11 Track 2
evaluation results, our proposed system ranked first on both of the two
subtasks of this Track.
- Abstract(参考訳): タスク指向対話システムでは意図認識が重要である。
しかし、新興ドメインや新しいサービスでは、時間を要するデータアノテーションと比較的貧弱なモデル転送可能性のため、会話の重要な意図を正確に特定することは困難である。
したがって、対話意図の自動誘導はインテリジェントな対話システムにとって非常に重要である。
本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話の会話からのインテントインジェクションのトラック2について述べる。
意図クラスタリングの本質は、異なる対話発話の表現を区別することにある。
自動意図誘導の鍵は、任意の新しいデータのセットに対して、モデルによって得られた文表現が異なるラベルとよく区別できることである。
そこで本研究では,非教師付きコントラスト学習事前学習,教師付きコントラスト学習事前学習,協調型コントラスト学習とクラスタリングによる微調整を含む多段階間相関学習モデルの訓練手法を提案し,クラスタリングタスクのためのより良い対話発話表現モデルを得る。
DSTC11 Track 2の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
関連論文リスト
- CluCDD:Contrastive Dialogue Disentanglement via Clustering [18.06976502939079]
毎日、膨大な数の多人数の対話がオンラインで行われている。
対話の切り離しは、絡み合った対話を分離したセッションに分けることを目的としている。
コントラスト学習により発話を集約するCluCDDというモデルを提案する。
論文 参考訳(メタデータ) (2023-02-16T08:47:51Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Two-Level Supervised Contrastive Learning for Response Selection in
Multi-Turn Dialogue [18.668723854662584]
本稿では,教師付きコントラスト損失を用いたコントラスト学習を課題に適用する。
我々は,2段階の教師付きコントラスト学習と呼ばれる,教師付きコントラスト学習の新しい手法を開発した。
論文 参考訳(メタデータ) (2022-03-01T23:43:36Z) - Self- and Pseudo-self-supervised Prediction of Speaker and Key-utterance
for Multi-party Dialogue Reading Comprehension [46.69961067676279]
マルチパーティ対話機械読解(MRC)は,複数の話者が対話を行うため,大きな課題をもたらす。
従来のモデルは、複雑なグラフベースのモジュールを使用して話者情報フローを組み込む方法に重点を置いていた。
本稿では、話者情報の流れを暗黙的にモデル化するために、話者とキー発話における2つの労働自由自助的・疑似自己監督型予測タスクを設計する。
論文 参考訳(メタデータ) (2021-09-08T16:51:41Z) - Self-supervised Dialogue Learning for Spoken Conversational Question
Answering [29.545937716796082]
音声対話質問応答(SCQA)では、複数の会話を含む固定された音声文書を検索して分析することにより、対応する質問に対する回答を生成する。
本研究では,不整合判定,挿入検出,質問予測などの自己教師付き学習手法を導入し,コア参照の解決と対話のコヒーレンスを明確に把握する。
提案手法は,従来の事前学習言語モデルと比較して,より一貫性があり,意味があり,適切な応答を提供する。
論文 参考訳(メタデータ) (2021-06-04T00:09:38Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Modelling Hierarchical Structure between Dialogue Policy and Natural
Language Generator with Option Framework for Task-oriented Dialogue System [49.39150449455407]
HDNOは、特定の対話行為表現の設計を避けるために潜在対話行為を設計するためのオプションフレームワークである。
RL,LaRL,HDSAで学習した単語レベルE2Eモデルと比較して,マルチドメイン対話のデータセットであるMultiWoz 2.0とMultiWoz 2.1でHDNOをテストする。
論文 参考訳(メタデータ) (2020-06-11T20:55:28Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。