論文の概要: Revisiting Conversation Discourse for Dialogue Disentanglement
- arxiv url: http://arxiv.org/abs/2306.03975v2
- Date: Sat, 10 Jun 2023 06:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 23:07:09.725059
- Title: Revisiting Conversation Discourse for Dialogue Disentanglement
- Title(参考訳): 対話ディスタングルのための会話談話の再検討
- Authors: Bobo Li, Hao Fei, Fei Li, Shengqiong Wu, Lizi Liao, Yinwei Wei,
Tat-Seng Chua, Donghong Ji
- Abstract要約: 本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 88.3386821205896
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dialogue disentanglement aims to detach the chronologically ordered
utterances into several independent sessions. Conversation utterances are
essentially organized and described by the underlying discourse, and thus
dialogue disentanglement requires the full understanding and harnessing of the
intrinsic discourse attribute. In this paper, we propose enhancing dialogue
disentanglement by taking full advantage of the dialogue discourse
characteristics. First of all, in feature encoding stage, we construct the
heterogeneous graph representations to model the various dialogue-specific
discourse structural features, including the static speaker-role structures
(i.e., speaker-utterance and speaker-mentioning structure) and the dynamic
contextual structures (i.e., the utterance-distance and partial-replying
structure). We then develop a structure-aware framework to integrate the rich
structural features for better modeling the conversational semantic context.
Second, in model learning stage, we perform optimization with a hierarchical
ranking loss mechanism, which groups dialogue utterances into different
discourse levels and carries training covering pair-wise and session-wise
levels hierarchically. Third, in inference stage, we devise an easy-first
decoding algorithm, which performs utterance pairing under the easy-to-hard
manner with a global context, breaking the constraint of traditional sequential
decoding order. On two benchmark datasets, our overall system achieves new
state-of-the-art performances on all evaluations. In-depth analyses further
demonstrate the efficacy of each proposed idea and also reveal how our methods
help advance the task. Our work has great potential to facilitate broader
multi-party multi-thread dialogue applications.
- Abstract(参考訳): 対話の混乱は、時系列的に順序付けられた発話をいくつかの独立したセッションに分割することを目的としている。
会話発話は基本的に、下層の談話によって構成され、記述されるので、対話の解離は本質的な談話属性の完全な理解と活用を必要とする。
本稿では,対話談話の特徴を最大限に活用し,対話の絡み合いを高めることを提案する。
まず、特徴符号化段階において、静的な話者-話者構造(話者-発話構造と話者-メンション構造)と動的文脈構造(発話距離と部分復元構造)を含む、様々な対話特有の談話構造の特徴をモデル化するために、異種グラフ表現を構築する。
次に、対話的意味コンテキストのモデリングを改善するために、リッチな構造機能を統合する構造認識フレームワークを開発した。
第2に、モデル学習段階では、対話発話を異なる談話レベルにグループ化し、ペアレベルとセッションレベルでの学習を階層的に行う階層的ランキング損失機構を用いて最適化を行う。
第3に, 推定段階では, 従来の逐次復号順序の制約を破って, 難解な方法で発話ペアリングを行う, 容易第一の復号アルゴリズムを考案する。
2つのベンチマークデータセットに対して,本システムでは,すべての評価において,新たな最先端性能を実現する。
より詳細な分析により,提案手法が課題の進行にどう役立つかを明らかにした。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
関連論文リスト
- Unsupervised Mutual Learning of Dialogue Discourse Parsing and Topic Segmentation [38.956438905614256]
修辞構造とトピック構造は、主に別々にモデル化されるか、または以前の作業で他方を補助する。
本稿では,グローバル・ローカル・コネクティビティを活用した2つの構造物の教師なし相互学習フレームワークを提案する。
また、局所コヒーレンス整合性を確保するために、グラフニューラルネットワークモデルを用いて、レトリック構造をトピック構造に組み込む。
論文 参考訳(メタデータ) (2024-05-30T08:10:50Z) - With a Little Help from my (Linguistic) Friends: Topic Segmentation of
Multi-party Casual Conversations [0.565395466029518]
本稿では,最近の機械学習に基づくトピックセグメンテーションモデルと同等の精度を達成しようとする。
このタスクで意味のあるものとして認識する機能は、会話の話題構造をよりよく理解するのに役立ちます。
論文 参考訳(メタデータ) (2024-02-05T09:48:07Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Unsupervised Learning of Hierarchical Conversation Structure [50.29889385593043]
ゴール指向の会話は、しばしば意味のあるサブ対話構造を持つが、ドメインに依存しやすい。
この研究は、ターンやサブダイアログのセグメントラベルを含む階層的な会話構造を学習するための教師なしのアプローチを導入する。
復号化構造は3つの会話レベル理解タスクのための言語ニューラルネットワークの強化に有用であることが示されている。
論文 参考訳(メタデータ) (2022-05-24T17:52:34Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。