論文の概要: Two-Level Supervised Contrastive Learning for Response Selection in
Multi-Turn Dialogue
- arxiv url: http://arxiv.org/abs/2203.00793v1
- Date: Tue, 1 Mar 2022 23:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 08:00:09.918414
- Title: Two-Level Supervised Contrastive Learning for Response Selection in
Multi-Turn Dialogue
- Title(参考訳): マルチターン対話における応答選択のための2段階教師付きコントラスト学習
- Authors: Wentao Zhang, Shuang Xu, and Haoran Huang
- Abstract要約: 本稿では,教師付きコントラスト損失を用いたコントラスト学習を課題に適用する。
我々は,2段階の教師付きコントラスト学習と呼ばれる,教師付きコントラスト学習の新しい手法を開発した。
- 参考スコア(独自算出の注目度): 18.668723854662584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selecting an appropriate response from many candidates given the utterances
in a multi-turn dialogue is the key problem for a retrieval-based dialogue
system. Existing work formalizes the task as matching between the utterances
and a candidate and uses the cross-entropy loss in learning of the model. This
paper applies contrastive learning to the problem by using the supervised
contrastive loss. In this way, the learned representations of positive examples
and representations of negative examples can be more distantly separated in the
embedding space, and the performance of matching can be enhanced. We further
develop a new method for supervised contrastive learning, referred to as
two-level supervised contrastive learning, and employ the method in response
selection in multi-turn dialogue. Our method exploits two techniques: sentence
token shuffling (STS) and sentence re-ordering (SR) for supervised contrastive
learning. Experimental results on three benchmark datasets demonstrate that the
proposed method significantly outperforms the contrastive learning baseline and
the state-of-the-art methods for the task.
- Abstract(参考訳): マルチターン対話における発話に対する多くの候補からの適切な応答を選択することは,検索に基づく対話システムにおいて重要な問題である。
既存の作業は、タスクを発話と候補のマッチングとして形式化し、モデルの学習においてクロスエントロピー損失を使用する。
本稿では,教師付きコントラスト損失を用いたコントラスト学習を課題に適用する。
このようにして、正の例の学習表現と負の例の表現は埋め込み空間でより遠く離れることができ、マッチングの性能を高めることができる。
さらに、2段階の教師付きコントラスト学習と呼ばれる新しい教師付きコントラスト学習法を開発し、マルチターン対話における応答選択にこの手法を用いる。
本手法は,文トークンシャッフル (STS) と文再順序付け (SR) の2つの手法を用いて教師付きコントラスト学習を行う。
3つのベンチマークデータセットによる実験結果から,提案手法はタスクの対照的な学習基準と最先端の手法を著しく上回ることがわかった。
関連論文リスト
- DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Improve Retrieval-based Dialogue System via Syntax-Informed Attention [46.79601705850277]
文内構文情報と文間構文情報の両方を考慮したSIA, Syntax-Informed Attentionを提案する。
提案手法を広範に使用した3つのベンチマークで評価し,対話応答選択における本手法の一般的な優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2023-03-12T08:14:16Z) - Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction [34.25242109800481]
本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話における会話からのインテントインジェクションの追跡方法について述べる。
意図的クラスタリングの本質は、異なる対話発話の表現を区別することにある。
DSTC11の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
論文 参考訳(メタデータ) (2023-03-09T04:51:27Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Towards Robust Online Dialogue Response Generation [62.99904593650087]
これは、トレーニングと実世界のテストの相違によって引き起こされる可能性がある、と私たちは主張する。
本稿では, 発話レベルサンプリングと半発話レベルサンプリングの両方からなる階層的サンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T06:51:41Z) - Small Changes Make Big Differences: Improving Multi-turn Response
Selection \\in Dialogue Systems via Fine-Grained Contrastive Learning [27.914380392295815]
検索に基づく対話応答選択は、マルチターンコンテキストが与えられた候補集合から適切な応答を求めることを目的としている。
PLMに基づく応答選択タスクのための新しいtextbfFine-textbfGrained textbfContrastive (FGC) 学習法を提案する。
論文 参考訳(メタデータ) (2021-11-19T11:07:07Z) - Dialogue Response Selection with Hierarchical Curriculum Learning [52.3318584971562]
対話応答選択のためのマッチングモデルの学習について検討する。
近年,ランダムなネガティブは信頼度の高いモデルを学習するには自明すぎることが判明し,階層的なカリキュラム学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-29T14:06:41Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。