論文の概要: Enhancing Dialogue Summarization with Topic-Aware Global- and Local-
Level Centrality
- arxiv url: http://arxiv.org/abs/2301.12376v1
- Date: Sun, 29 Jan 2023 06:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:24:31.266360
- Title: Enhancing Dialogue Summarization with Topic-Aware Global- and Local-
Level Centrality
- Title(参考訳): トピック対応グローバルとローカルレベル中心性による対話要約の強化
- Authors: Xinnian Liang, Shuangzhi Wu, Chenhao Cui, Jiaqi Bai, Chao Bian,
Zhoujun Li
- Abstract要約: 我々は,すべてのサブトピックから健全なコンテキストを選択するのに役立つ,新たなトピック対応グローバル・ローカル・セントラル(GLC)モデルを提案する。
グローバルなものは対話において重要なサブトピックを特定することを目的としており、ローカルなものは各サブトピックにおいて最も重要なコンテキストを選択することを目的としている。
実験結果から,本モデルは3つの公開対話要約データセットにおいて高いベースラインを達成できた。
- 参考スコア(独自算出の注目度): 24.838387172698543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue summarization aims to condense a given dialogue into a simple and
focused summary text. Typically, both the roles' viewpoints and conversational
topics change in the dialogue stream. Thus how to effectively handle the
shifting topics and select the most salient utterance becomes one of the major
challenges of this task. In this paper, we propose a novel topic-aware
Global-Local Centrality (GLC) model to help select the salient context from all
sub-topics. The centralities are constructed at both the global and local
levels. The global one aims to identify vital sub-topics in the dialogue and
the local one aims to select the most important context in each sub-topic.
Specifically, the GLC collects sub-topic based on the utterance
representations. And each utterance is aligned with one sub-topic. Based on the
sub-topics, the GLC calculates global- and local-level centralities. Finally,
we combine the two to guide the model to capture both salient context and
sub-topics when generating summaries. Experimental results show that our model
outperforms strong baselines on three public dialogue summarization datasets:
CSDS, MC, and SAMSUM. Further analysis demonstrates that our GLC can exactly
identify vital contents from
sub-topics.~\footnote{\url{https://github.com/xnliang98/bart-glc}}
- Abstract(参考訳): 対話要約は、与えられた対話をシンプルで集中した要約テキストにまとめることを目的としている。
典型的には、役割の視点と会話の話題の両方が対話ストリームで変化する。
このように、シフトするトピックを効果的に処理し、最も健全な発話を選択する方法が、このタスクの大きな課題の1つになります。
本稿では,すべてのサブトピックから高度コンテキストを選択するための新しいトピックアウェアグローバルローカル集中度(glc)モデルを提案する。
中心地はグローバルとローカルの両方に構築されている。
グローバル・ワンは対話における重要なサブトピックを特定し、ローカル・ワンは各サブトピックにおける最も重要なコンテキストを選択することを目的としている。
特に、glcは、発話表現に基づいてサブトピックを収集する。
各発話は1つのサブトピックと一致している。
サブトピックに基づいて、glcはグローバルおよびローカルレベルの集中度を計算する。
最後に、この2つを組み合わせることで、サマリーコンテキストとサブトピックの両方をキャプチャするモデルをガイドします。
実験の結果,CSDS,MC,SAMSUMの3つの公開対話要約データセットでは,モデルが強いベースラインを達成できた。
さらなる分析により、GLCはサブトピックから重要な内容を正確に特定できることが示される。
~\footnote{\url{https://github.com/xnliang98/bart-glc}}
関連論文リスト
- Local and Global Contexts for Conversation [2.566915473185134]
オープンドメインにおける汎用会話のためのローカル・グローバル会話モデル(LGCM)を提案する。
局所的な階層変換モデルであり、関連するコンテキストを正確に識別し、同化することができる。
ローカルエンコーダを使用して、個々の発話レベルでローカルコンテキストを把握し、グローバルエンコーダを使用して対話レベルでのより広いコンテキストを理解する。
論文 参考訳(メタデータ) (2024-01-31T04:19:22Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Multi-Granularity Prompts for Topic Shift Detection in Dialogue [13.739991183173494]
対話トピックシフト検出の目標は、会話中の現在のトピックが変更されたか、変更する必要があるかを特定することである。
従来の研究は、事前訓練されたモデルを用いて発話を符号化するトピックシフトの検出に重点を置いていた。
我々は,複数粒度での対話,すなわちラベル,ターン,トピックから話題情報を抽出するために,プロンプトベースのアプローチを採用する。
論文 参考訳(メタデータ) (2023-05-23T12:35:49Z) - Sequential Topic Selection Model with Latent Variable for Topic-Grounded
Dialogue [21.1427816176227]
我々は,すべての会話における話題遷移を活用するために,SGTA(Sequential Global Topic Attention)という新しいアプローチを提案する。
我々のモデルは予測および生成タスクの競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2022-10-17T07:34:14Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - Topic-Oriented Spoken Dialogue Summarization for Customer Service with
Saliency-Aware Topic Modeling [61.67321200994117]
顧客サービスシステムでは、長い音声対話のための要約を作成することにより、対話要約はサービス効率を高めることができる。
本研究では,高度に抽象的な要約を生成するトピック指向の対話要約に注目した。
SATM(Saliency-Awareural topic Model)と併用し,顧客サービス対話のトピック指向要約を目的とした,新しいトピック拡張型2段階対話要約器(TDS)を提案する。
論文 参考訳(メタデータ) (2020-12-14T07:50:25Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Modeling Topical Relevance for Multi-Turn Dialogue Generation [61.87165077442267]
マルチターン対話におけるトピックドリフト問題に対処する新しいモデルSTAR-BTMを提案する。
バイラルトピックモデルは、トレーニングデータセット全体に基づいて事前トレーニングされ、各コンテキストのトピック表現に基づいてトピックレベルの注意重みが計算される。
中国における顧客サービスデータと英語Ubuntuの対話データの両方の実験結果から、STAR-BTMは最先端の手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-09-27T03:33:22Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。