論文の概要: Conversation Disentanglement with Bi-Level Contrastive Learning
- arxiv url: http://arxiv.org/abs/2210.15265v2
- Date: Fri, 30 Aug 2024 18:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 23:05:43.431576
- Title: Conversation Disentanglement with Bi-Level Contrastive Learning
- Title(参考訳): 双方向コントラスト学習による会話の絡み合い
- Authors: Chengyu Huang, Zheng Zhang, Hao Fei, Lizi Liao,
- Abstract要約: 既存の手法には2つの主な欠点がある。まず、ペアの発話関係を過度に強調するが、発話-文脈関係モデルに不適切な注意を払う。
本稿では,2段階のコントラスト学習に基づく一般的な不協和モデルを提案する。このモデルでは,同一セッションに近づき,各発話が表現空間内のクラスタ化されたセッションプロトタイプに近づくように促す。
- 参考スコア(独自算出の注目度): 26.707584899718288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversation disentanglement aims to group utterances into detached sessions, which is a fundamental task in processing multi-party conversations. Existing methods have two main drawbacks. First, they overemphasize pairwise utterance relations but pay inadequate attention to the utterance-to-context relation modeling. Second, huge amount of human annotated data is required for training, which is expensive to obtain in practice. To address these issues, we propose a general disentangle model based on bi-level contrastive learning. It brings closer utterances in the same session while encourages each utterance to be near its clustered session prototypes in the representation space. Unlike existing approaches, our disentangle model works in both supervised setting with labeled data and unsupervised setting when no such data is available. The proposed method achieves new state-of-the-art performance on both settings across several public datasets.
- Abstract(参考訳): Conversation Disentanglementは、発話を分離したセッションにグループ化することを目的としており、これは多人数会話の処理における基本的なタスクである。
既存の方法には2つの欠点がある。
まず、ペアワイズな発話関係を過度に強調するが、発話対コンテキスト関係のモデリングには不適切な注意を払っている。
第2に、トレーニングには大量の人間の注釈付きデータが必要であり、実際に取得するにはコストがかかる。
これらの問題に対処するために,両水準のコントラスト学習に基づく一般的な不整合モデルを提案する。
同じセッションでより近い発話をもたらし、各発話が表現空間内のクラスタ化されたセッションプロトタイプの近くにあるように促します。
既存のアプローチとは異なり、当社の非角モデルはラベル付きデータを用いた教師付き設定と、そのようなデータが利用できない場合の教師なし設定の両方で動作する。
提案手法は,複数の公開データセットにまたがる両方の設定において,新しい最先端性能を実現する。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Cross-Align: Modeling Deep Cross-lingual Interactions for Word Alignment [63.0407314271459]
提案したCross-Alignは、5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成する。
実験の結果,提案したCross-Alignは5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2022-10-09T02:24:35Z) - Opponent Modeling in Negotiation Dialogues by Related Data Adaptation [20.505272677769355]
本稿では交渉対話から優先順位を識別するためのランク付け手法を提案する。
モデルは部分対話を入力として受け取り、相手の優先順位を予測する。
本稿では,2つの対話データセットに基づく広範囲な実験を通じて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2022-04-30T21:11:41Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - TANet: Thread-Aware Pretraining for Abstractive Conversational
Summarization [27.185068253347257]
我々はRedditコミュニティの複数人による議論に基づいて,RCSと呼ばれる大規模(11M)事前学習データセットを構築した。
次に、スレッド対応のTransformerベースのネットワークであるTANetを紹介する。
会話を文の列として扱う既存の事前学習モデルとは異なり、本質的な文脈依存は会話全体を理解する上で重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2022-04-09T16:08:46Z) - Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations [22.894541507068933]
本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
論文 参考訳(メタデータ) (2022-03-08T12:26:57Z) - Unsupervised Conversation Disentanglement through Co-Training [30.304609312675186]
人間のアノテーションを参考にすることなく、会話の絡み合いモデルを訓練する。
提案手法は,2つのニューラルネットワークからなるディープコトレーニングアルゴリズムに基づいて構築される。
メッセージペア分類器では、信頼度の高いメッセージペアを検索することで、トレーニングデータを強化します。
論文 参考訳(メタデータ) (2021-09-07T17:05:18Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - Learning to Match Jobs with Resumes from Sparse Interaction Data using
Multi-View Co-Teaching Network [83.64416937454801]
ジョブ列のインタラクションデータは疎結合でノイズが多く、ジョブ列のマッチングアルゴリズムのパフォーマンスに影響する。
求人情報マッチングのための疎相互作用データから,新しいマルチビュー協調学習ネットワークを提案する。
我々のモデルは求人マッチングの最先端手法より優れている。
論文 参考訳(メタデータ) (2020-09-25T03:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。