論文の概要: Small Changes Make Big Differences: Improving Multi-turn Response
Selection \\in Dialogue Systems via Fine-Grained Contrastive Learning
- arxiv url: http://arxiv.org/abs/2111.10154v1
- Date: Fri, 19 Nov 2021 11:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 15:58:57.201864
- Title: Small Changes Make Big Differences: Improving Multi-turn Response
Selection \\in Dialogue Systems via Fine-Grained Contrastive Learning
- Title(参考訳): 小さな変化は大きな差をもたらす:細粒度コントラスト学習によるマルチターン応答選択 \\in対話システムの改善
- Authors: Yuntao Li, Can Xu, Huang Hu, Lei Sha, Yan Zhang, Daxin Jiang
- Abstract要約: 検索に基づく対話応答選択は、マルチターンコンテキストが与えられた候補集合から適切な応答を求めることを目的としている。
PLMに基づく応答選択タスクのための新しいtextbfFine-textbfGrained textbfContrastive (FGC) 学習法を提案する。
- 参考スコア(独自算出の注目度): 27.914380392295815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieve-based dialogue response selection aims to find a proper response
from a candidate set given a multi-turn context. Pre-trained language models
(PLMs) based methods have yielded significant improvements on this task. The
sequence representation plays a key role in the learning of matching degree
between the dialogue context and the response. However, we observe that
different context-response pairs sharing the same context always have a greater
similarity in the sequence representations calculated by PLMs, which makes it
hard to distinguish positive responses from negative ones. Motivated by this,
we propose a novel \textbf{F}ine-\textbf{G}rained \textbf{C}ontrastive (FGC)
learning method for the response selection task based on PLMs. This FGC
learning strategy helps PLMs to generate more distinguishable matching
representations of each dialogue at fine grains, and further make better
predictions on choosing positive responses. Empirical studies on two benchmark
datasets demonstrate that the proposed FGC learning method can generally and
significantly improve the model performance of existing PLM-based matching
models.
- Abstract(参考訳): 検索に基づく対話応答選択は、マルチターンコンテキストの候補セットから適切な応答を求めることを目的としている。
プレトレーニング言語モデル(PLM)ベースの手法は、このタスクに大幅な改善をもたらした。
シーケンス表現は、対話コンテキストと応答の間の一致する度合いの学習において重要な役割を果たす。
しかし、同じ文脈を共有する異なる文脈応答対は、plmで計算されたシーケンス表現に常に大きな類似性を持ち、正の応答と負の応答の区別が困難である。
そこで本研究では, PLM に基づく応答選択タスクに対する新しい \textbf{F}ine-\textbf{G}rained \textbf{C}ontrastive (FGC) 学習法を提案する。
このfgc学習戦略により、plmは、微粒度で各対話のより識別可能なマッチング表現を生成し、さらにポジティブな応答を選択するためのより良い予測を行うことができる。
2つのベンチマークデータセットに関する実証研究は、提案手法が既存のplmベースのマッチングモデルのモデル性能を概ね改善できることを実証している。
関連論文リスト
- Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - JoTR: A Joint Transformer and Reinforcement Learning Framework for
Dialog Policy Learning [53.83063435640911]
対話政策学習(DPL)は対話モデリングの重要な構成要素である。
フレキシブルな対話行動を生成するための新しいフレームワークであるJoTRを導入する。
従来の方法とは異なり、JoTRはよりダイナミックで適応可能な対話アクション生成を可能にするワードレベルのポリシーを定式化している。
論文 参考訳(メタデータ) (2023-09-01T03:19:53Z) - Diverse and Faithful Knowledge-Grounded Dialogue Generation via
Sequential Posterior Inference [82.28542500317445]
本稿では,知識の選択と対話生成が可能な,逐次後推論(Sequential Posterior Inference, SPI)と呼ばれるエンドツーエンド学習フレームワークを提案する。
他の方法とは異なり、SPIは推論ネットワークを必要とせず、後部分布の単純な幾何学を仮定する。
論文 参考訳(メタデータ) (2023-06-01T21:23:13Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z) - DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust
Conversational Modeling [3.3578533367912025]
本稿では,対話コンテキストの拡張バージョンを学習目的に組み込むフレームワークを提案する。
提案手法は,従来のデータ拡張手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-15T23:39:41Z) - Two-Level Supervised Contrastive Learning for Response Selection in
Multi-Turn Dialogue [18.668723854662584]
本稿では,教師付きコントラスト損失を用いたコントラスト学習を課題に適用する。
我々は,2段階の教師付きコントラスト学習と呼ばれる,教師付きコントラスト学習の新しい手法を開発した。
論文 参考訳(メタデータ) (2022-03-01T23:43:36Z) - Learning to Ask Conversational Questions by Optimizing Levenshtein
Distance [83.53855889592734]
明示的な編集動作によって最小レベンシュテイン距離(MLD)を最適化する強化反復シーケンス編集(RISE)フレームワークを導入する。
RISEは会話の特徴に関連するトークンに注意を払うことができる。
2つのベンチマークデータセットの実験結果から、RISEは最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-30T08:44:19Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Do Response Selection Models Really Know What's Next? Utterance
Manipulation Strategies for Multi-turn Response Selection [11.465266718370536]
本研究では,検索に基づく対話システムにおけるユーザとシステム発話履歴の最適応答を選択するタスクについて検討する。
この問題に対処するための発話操作戦略(UMS)を提案する。
UMSは、ダイアログコヒーレンスを維持するための応答選択モデルを支援するいくつかの戦略(挿入、削除、検索)から構成される。
論文 参考訳(メタデータ) (2020-09-10T07:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。