論文の概要: DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2212.10018v2
- Date: Fri, 26 May 2023 17:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 23:02:08.885880
- Title: DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization
- Title(参考訳): DIONYSUS:低リソース対話要約のための事前学習モデル
- Authors: Yu Li, Baolin Peng, Pengcheng He, Michel Galley, Zhou Yu and Jianfeng
Gao
- Abstract要約: DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 127.714919036388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue summarization has recently garnered significant attention due to its
wide range of applications. However, existing methods for summarizing dialogues
have limitations because they do not take into account the inherent structure
of dialogue and rely heavily on labeled data, which can lead to poor
performance in new domains. In this work, we propose DIONYSUS (dynamic input
optimization in pre-training for dialogue summarization), a pre-trained
encoder-decoder model for summarizing dialogues in any new domain. To pre-train
DIONYSUS, we create two pseudo summaries for each dialogue example: one is
produced by a fine-tuned summarization model, and the other is a collection of
dialogue turns that convey important information. We then choose one of these
pseudo summaries based on the difference in information distribution across
different types of dialogues. This selected pseudo summary serves as the
objective for pre-training DIONYSUS using a self-supervised approach on a large
dialogue corpus. Our experiments show that DIONYSUS outperforms existing
methods on six datasets, as demonstrated by its ROUGE scores in zero-shot and
few-shot settings.
- Abstract(参考訳): ダイアログの要約は、その幅広い応用により、近年大きな注目を集めている。
しかし,既存の対話を要約する手法には,対話の本来の構造を考慮せず,ラベル付きデータに大きく依存しているため,新たなドメインのパフォーマンスが低下する可能性があるため,制限がある。
本研究では,任意の領域における対話を要約するプリトレーニングエンコーダ・デコーダモデルであるdionysus (dynamic input optimization in pre-training for dialogue summarization)を提案する。
DIONYSUSを事前訓練するために、各対話例に対して2つの擬似要約を作成する:1つは微調整の要約モデルで作成され、もう1つは重要な情報を伝える対話のターンのコレクションである。
次に,これらの疑似要約の1つを,異なる種類の対話における情報分布の違いに基づいて選択する。
この選択された擬似要約は、大きな対話コーパスに自己教師付きアプローチを用いてディオニューソスを事前学習する目的である。
我々の実験によると、DIONYSUSは、ROUGEスコアがゼロショットと少数ショット設定で示すように、6つのデータセット上の既存の手法よりも優れている。
関連論文リスト
- OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - An Exploratory Study on Long Dialogue Summarization: What Works and
What's Next [33.1899354772074]
本稿では,長文入力問題に対処し,関連する情報を見つけるための3つの戦略を検証し,長文対話の要約について検討する。
QMSum, MediaSum, SummScreenの3つの長文対話データセットによる実験結果から, 検索・推定パイプラインモデルが最も高い性能を示した。
論文 参考訳(メタデータ) (2021-09-10T01:38:26Z) - Low-Resource Dialogue Summarization with Domain-Agnostic Multi-Source
Pretraining [10.750492932503649]
注釈付き要約を伴う対話データの不十分さのため、大規模な要約モデルの訓練は一般的に不可能である。
本稿では,外部要約データをよりよく活用するためのマルチソース事前学習パラダイムを提案する。
提案手法は競争性能を達成し,異なる対話シナリオでよく一般化する。
論文 参考訳(メタデータ) (2021-09-09T07:47:16Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。