論文の概要: Advancing Multi-Party Dialogue Systems with Speaker-ware Contrastive Learning
- arxiv url: http://arxiv.org/abs/2501.11292v1
- Date: Mon, 20 Jan 2025 06:28:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:14.122460
- Title: Advancing Multi-Party Dialogue Systems with Speaker-ware Contrastive Learning
- Title(参考訳): 話者ウェアコントラスト学習による多人数対話システムの改良
- Authors: Zhongtian Hu, Qi He, Ronghan Li, Meng Zhao, Lifang Wang,
- Abstract要約: コントラスト学習に基づく多人数対話応答生成モデルを提案する。
CMRは自己指導型コントラスト学習を用いて「誰が何を言っているのか」を識別する
CMRは、多人数対話応答タスクにおける最先端モデルよりも大幅に優れている。
- 参考スコア(独自算出の注目度): 10.678477576849579
- License:
- Abstract: Dialogue response generation has made significant progress, but most research has focused on dyadic dialogue. In contrast, multi-party dialogues involve more participants, each potentially discussing different topics, making the task more complex. Current methods often rely on graph neural networks to model dialogue context, which helps capture the structural dynamics of multi-party conversations. However, these methods are heavily dependent on intricate graph structures and dataset annotations, and they often overlook the distinct speaking styles of participants. To address these challenges, we propose CMR, a Contrastive learning-based Multi-party dialogue Response generation model. CMR uses self-supervised contrastive learning to better distinguish "who says what." Additionally, by comparing speakers within the same conversation, the model captures differences in speaking styles and thematic transitions. To the best of our knowledge, this is the first approach to apply contrastive learning in multi-party dialogue generation. Experimental results show that CMR significantly outperforms state-of-the-art models in multi-party dialogue response tasks.
- Abstract(参考訳): 対話応答生成は大きな進歩を遂げているが、ほとんどの研究はダイアディック対話に焦点を当てている。
対照的に、多人数の対話にはより多くの参加者が参加し、それぞれ異なるトピックについて議論する可能性があるため、タスクはより複雑になる。
現在の方法では、対話コンテキストをモデル化するためにグラフニューラルネットワークを利用することが多く、多人数会話の構造的ダイナミクスを捉えるのに役立つ。
しかし、これらの手法は複雑なグラフ構造やデータセットアノテーションに大きく依存しており、しばしば参加者の異なる話し方を見落としている。
これらの課題に対処するために,コントラスト学習に基づく多人数対話応答生成モデルであるCMRを提案する。
CMRは自己指導型コントラスト学習を用いて「誰が何を言っているのか」をよりよく区別する。
さらに、同じ会話の中で話者を比較することで、モデルは話し方やテーマの遷移の違いを捉える。
我々の知る限りでは、これは多人数対話生成においてコントラスト学習を適用するための最初のアプローチである。
実験結果から,CMRは多人数対話処理における最先端モデルよりも有意に優れていた。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Learning Dialogue Representations from Consecutive Utterances [29.150589618130695]
本稿では,自己指導型コントラスト学習手法である対話文埋め込み(DSE)を紹介する。
DSEは、対照的な学習のための正のペアと同じ対話の連続的な発話を取り、対話から学習する。
異なる意味的粒度の対話表現を調べる5つの下流対話課題についてDSEを評価する。
論文 参考訳(メタデータ) (2022-05-26T18:15:13Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust
Conversational Modeling [3.3578533367912025]
本稿では,対話コンテキストの拡張バージョンを学習目的に組み込むフレームワークを提案する。
提案手法は,従来のデータ拡張手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-15T23:39:41Z) - Learning from Perturbations: Diverse and Informative Dialogue Generation
with Inverse Adversarial Training [10.17868476063421]
Inverse Adversarial Training (IAT) アルゴリズムを提案する。
IATはモデルに対話履歴の摂動に敏感であり、従って摂動から学ぶことを奨励する。
提案手法は対話履歴をモデル化し,より多様で一貫した応答を生成する。
論文 参考訳(メタデータ) (2021-05-31T17:28:37Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。