論文の概要: CluCDD:Contrastive Dialogue Disentanglement via Clustering
- arxiv url: http://arxiv.org/abs/2302.08146v1
- Date: Thu, 16 Feb 2023 08:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:35:35.539575
- Title: CluCDD:Contrastive Dialogue Disentanglement via Clustering
- Title(参考訳): CluCDD:クラスタリングによるコントラスト対話分散
- Authors: Jingsheng Gao, Zeyu Li, Suncheng Xiang, Ting Liu, Yuzhuo Fu
- Abstract要約: 毎日、膨大な数の多人数の対話がオンラインで行われている。
対話の切り離しは、絡み合った対話を分離したセッションに分けることを目的としている。
コントラスト学習により発話を集約するCluCDDというモデルを提案する。
- 参考スコア(独自算出の注目度): 18.06976502939079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A huge number of multi-participant dialogues happen online every day, which
leads to difficulty in understanding the nature of dialogue dynamics for both
humans and machines. Dialogue disentanglement aims at separating an entangled
dialogue into detached sessions, thus increasing the readability of long
disordered dialogue. Previous studies mainly focus on message-pair
classification and clustering in two-step methods, which cannot guarantee the
whole clustering performance in a dialogue. To address this challenge, we
propose a simple yet effective model named CluCDD, which aggregates utterances
by contrastive learning. More specifically, our model pulls utterances in the
same session together and pushes away utterances in different ones. Then a
clustering method is adopted to generate predicted clustering labels.
Comprehensive experiments conducted on the Movie Dialogue dataset and IRC
dataset demonstrate that our model achieves a new state-of-the-art result.
- Abstract(参考訳): 多くの多人数対話が毎日オンラインで行われており、人間と機械の両方の対話力学の性質を理解するのが困難である。
対話解離は、絡み合った対話を分離したセッションに分離することを目的としており、長い混乱した対話の可読性を高める。
従来の研究では,対話におけるクラスタリング性能を保証できない2段階の手法で,メッセージペア分類とクラスタリングを主に重視していた。
この課題に対処するために,コントラスト学習によって発話を集約するCluCDDというシンプルなモデルを提案する。
より具体的には、私たちのモデルは同じセッションで発話をまとめ、異なるセッションで発話をプッシュします。
そして、予測クラスタリングラベルを生成するためにクラスタリング手法を採用する。
Movie Dialogue データセットとIRC データセットで実施した総合実験により,本モデルが新たな最先端結果をもたらすことを示す。
関連論文リスト
- Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Unsupervised Dialogue Topic Segmentation with Topic-aware Utterance
Representation [51.22712675266523]
対話トピック(DTS)は、様々な対話モデリングタスクにおいて重要な役割を果たす。
本稿では,ラベルなし対話データからトピック対応発話表現を学習する,教師なしDSSフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T11:35:23Z) - Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction [34.25242109800481]
本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話における会話からのインテントインジェクションの追跡方法について述べる。
意図的クラスタリングの本質は、異なる対話発話の表現を区別することにある。
DSTC11の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
論文 参考訳(メタデータ) (2023-03-09T04:51:27Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Structural Modeling for Dialogue Disentanglement [43.352833140317486]
マルチパーティ対話コンテキスト マルチパーティ対話コンテキストは、対話読解の課題に繋がる。
本研究は,対話構造の特徴を考慮に入れて,複数パーティ履歴をスレッドにアンタングルする新しいモデルを設計する。
論文 参考訳(メタデータ) (2021-10-15T11:28:43Z) - Commonsense-Focused Dialogues for Response Generation: An Empirical
Study [39.49727190159279]
対話応答生成におけるコモンセンスの実証的研究について述べる。
まず、ConceptNetを利用して既存の対話データセットから共通感覚対話を自動的に抽出する。
次に、対話的な環境での社会的常識を示すことを目的とした、25K対話を備えた対話データセットを新たに収集する。
論文 参考訳(メタデータ) (2021-09-14T04:32:09Z) - DialogLM: Pre-trained Model for Long Dialogue Understanding and
Summarization [19.918194137007653]
本稿では,長い対話理解と要約のための事前学習フレームワークを提案する。
長い会話の性質を考慮し、生成前学習のためのウィンドウベースの認知的アプローチを提案する。
我々は,対話要約,抽象的質問応答,トピックセグメンテーションのタスクをカバーする,長文対話の5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-06T13:55:03Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。