論文の概要: Unsupervised Conversation Disentanglement through Co-Training
- arxiv url: http://arxiv.org/abs/2109.03199v1
- Date: Tue, 7 Sep 2021 17:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 16:04:34.221430
- Title: Unsupervised Conversation Disentanglement through Co-Training
- Title(参考訳): 共同学習による教師なし会話の絡み合い
- Authors: Hui Liu, Zhan Shi and Xiaodan Zhu
- Abstract要約: 人間のアノテーションを参考にすることなく、会話の絡み合いモデルを訓練する。
提案手法は,2つのニューラルネットワークからなるディープコトレーニングアルゴリズムに基づいて構築される。
メッセージペア分類器では、信頼度の高いメッセージペアを検索することで、トレーニングデータを強化します。
- 参考スコア(独自算出の注目度): 30.304609312675186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversation disentanglement aims to separate intermingled messages into
detached sessions, which is a fundamental task in understanding multi-party
conversations. Existing work on conversation disentanglement relies heavily
upon human-annotated datasets, which are expensive to obtain in practice. In
this work, we explore to train a conversation disentanglement model without
referencing any human annotations. Our method is built upon a deep co-training
algorithm, which consists of two neural networks: a message-pair classifier and
a session classifier. The former is responsible for retrieving local relations
between two messages while the latter categorizes a message to a session by
capturing context-aware information. Both networks are initialized respectively
with pseudo data built from an unannotated corpus. During the deep co-training
process, we use the session classifier as a reinforcement learning component to
learn a session assigning policy by maximizing the local rewards given by the
message-pair classifier. For the message-pair classifier, we enrich its
training data by retrieving message pairs with high confidence from the
disentangled sessions predicted by the session classifier. Experimental results
on the large Movie Dialogue Dataset demonstrate that our proposed approach
achieves competitive performance compared to the previous supervised methods.
Further experiments show that the predicted disentangled conversations can
promote the performance on the downstream task of multi-party response
selection.
- Abstract(参考訳): 会話の絡み合い(conversation disentanglement)は、対話したメッセージを分離したセッションに分離することを目的としている。
会話の絡み合いに関する既存の研究は、人間が注釈付けしたデータセットに大きく依存している。
本研究では,人間のアノテーションを参考にすることなく,会話の絡み合うモデルを訓練する。
本手法は,メッセージペア分類器とセッション分類器の2つのニューラルネットワークからなる,深い共学習アルゴリズムに基づいている。
前者は2つのメッセージ間のローカルな関係を検索し、後者はコンテキスト認識情報を取り込んでセッションにメッセージを分類する。
どちらのネットワークも、アノテーションのないコーパスから構築された擬似データで初期化される。
深いコトレーニングプロセスでは、セッション分類器を強化学習コンポーネントとして使用し、メッセージペア分類器が与えるローカル報酬を最大化することにより、セッション割り当てポリシーを学習する。
メッセージペア分類器では,セッション分類器によって予測される不整合セッションから高い信頼度でメッセージペアを抽出することにより,トレーニングデータを充実させる。
大規模な映画対話データセットの実験結果から,提案手法は従来の教師付き手法と比較して競争性能が向上することを示した。
さらなる実験により、予測された不一致の会話は、マルチパーティ応答選択の下流タスクのパフォーマンスを促進できることが示されている。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Conversation Disentanglement with Bi-Level Contrastive Learning [26.707584899718288]
既存の手法には2つの主な欠点がある。まず、ペアの発話関係を過度に強調するが、発話-文脈関係モデルに不適切な注意を払う。
本稿では,2段階のコントラスト学習に基づく一般的な不協和モデルを提案する。このモデルでは,同一セッションに近づき,各発話が表現空間内のクラスタ化されたセッションプロトタイプに近づくように促す。
論文 参考訳(メタデータ) (2022-10-27T08:41:46Z) - Analysis of Joint Speech-Text Embeddings for Semantic Matching [3.6423306784901235]
ペア音声と書き起こし入力の距離を最小化することにより,セマンティックマッチングのために訓練された共同音声テキスト埋め込み空間について検討する。
我々は,事前学習とマルチタスクの両方のシナリオを通じて,音声認識を組み込む方法を拡張した。
論文 参考訳(メタデータ) (2022-04-04T04:50:32Z) - Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations [22.894541507068933]
本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
論文 参考訳(メタデータ) (2022-03-08T12:26:57Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。