論文の概要: Leveraging Non-dialogue Summaries for Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2210.09474v1
- Date: Mon, 17 Oct 2022 23:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 13:20:26.786101
- Title: Leveraging Non-dialogue Summaries for Dialogue Summarization
- Title(参考訳): 対話要約のための非ダイアログ要約の活用
- Authors: Seongmin Park, Dongchan Shin, Jihwa Lee
- Abstract要約: 要約データペアの文書化に変換を適用して,対話の要約に適したトレーニングデータを作成する。
我々は、我々のアプローチを検証するために、英語と韓国語の両方で広範な実験を行っている。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To mitigate the lack of diverse dialogue summarization datasets in academia,
we present methods to utilize non-dialogue summarization data for enhancing
dialogue summarization systems. We apply transformations to document
summarization data pairs to create training data that better befit dialogue
summarization. The suggested transformations also retain desirable properties
of non-dialogue datasets, such as improved faithfulness to the source text. We
conduct extensive experiments across both English and Korean to verify our
approach. Although absolute gains in ROUGE naturally plateau as more dialogue
summarization samples are introduced, utilizing non-dialogue data for training
significantly improves summarization performance in zero- and few-shot settings
and enhances faithfulness across all training regimes.
- Abstract(参考訳): 学術における多種多様な対話要約データセットの欠如を軽減するため,非対話要約データを用いて対話要約システムを強化する手法を提案する。
文書要約データペアに変換を適用し,対話要約に適したトレーニングデータを作成する。
提案した変換は、ソーステキストへの忠実性の改善など、非対話データセットの望ましい特性も保持する。
我々は、我々のアプローチを検証するために、英語と韓国語の両方で広範な実験を行います。
ROUGEでは、対話要約サンプルが多くなるにつれて絶対的な利得がもたらされるが、訓練のための非対話データを利用することで、ゼロおよび少数ショット設定における要約性能が大幅に向上し、訓練体制全体の忠実性を高める。
関連論文リスト
- SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - Multijugate Dual Learning for Low-Resource Task-Oriented Dialogue System [40.072084239764465]
低リソースシナリオにおけるデータ利用効率は、不確実な発話および決定論的対話状態のマイニングアライメント情報によって向上することができる。
タスク指向対話における二元学習を革新的に実装し、異種データの相関性を利用する。
論文 参考訳(メタデータ) (2023-05-25T14:38:05Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Few-Shot Dialogue Summarization via Skeleton-Assisted Prompt Transfer in
Prompt Tuning [47.336815771549524]
Skeleton-Assisted Prompt Transferは、対話状態追跡から対話要約へのプロンプト転送を改善する。
本稿では,アノテーションやドメイン知識を必要としない摂動型プローブを用いた新しい手法を提案する。
In-deepth analysis is demonstrated the effective of our method in help a cross-task knowledge transfer in few-shot dialogue summarization。
論文 参考訳(メタデータ) (2023-05-20T03:32:48Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Enhancing Semantic Understanding with Self-supervised Methods for
Abstractive Dialogue Summarization [4.226093500082746]
本稿では,対話要約モデルを訓練するための欠点を補う自己教師型手法を提案する。
我々の原理は,対話文表現の文脈化能力を高めるために,前文対話文を用いて不整合情報の流れを検出することである。
論文 参考訳(メタデータ) (2022-09-01T07:51:46Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。