論文の概要: Post-Training Dialogue Summarization using Pseudo-Paraphrasing
- arxiv url: http://arxiv.org/abs/2204.13498v1
- Date: Thu, 28 Apr 2022 13:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:22:11.782245
- Title: Post-Training Dialogue Summarization using Pseudo-Paraphrasing
- Title(参考訳): Pseudo-Paraphrasing を用いた学習後対話要約
- Authors: Qi Jia, Yizhu Liu, Haifeng Tang, Kenny Q. Zhu
- Abstract要約: 本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 12.083992819138716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous dialogue summarization techniques adapt large language models
pretrained on the narrative text by injecting dialogue-specific features into
the models. These features either require additional knowledge to recognize or
make the resulting models harder to tune. To bridge the format gap between
dialogues and narrative summaries in dialogue summarization tasks, we propose
to post-train pretrained language models (PLMs) to rephrase from dialogue to
narratives. After that, the model is fine-tuned for dialogue summarization as
usual. Comprehensive experiments show that our approach significantly improves
vanilla PLMs on dialogue summarization and outperforms other SOTA models by the
summary quality and implementation costs.
- Abstract(参考訳): 従来の対話要約手法では、対話特有の特徴をモデルに注入することで、物語テキストに事前学習された大きな言語モデルを適用する。
これらの特徴は、結果のモデルをチューニングしにくくする、または認識するために追加の知識を必要とする。
対話要約タスクにおける対話と物語要約の形式的ギャップを埋めるために,対話から物語への言い換えとして,訓練後事前学習言語モデル(PLM)を提案する。
その後、モデルは通常通り対話要約のために微調整される。
包括的実験により,提案手法は対話要約におけるバニラplmを著しく改善し,要約品質と実装コストで他のsotaモデルを上回ることを示した。
関連論文リスト
- SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for
Task-Oriented Dialogue [20.79359173822053]
本稿では,対話前学習モデルFutureTODを提案する。
我々の直感は、良い対話表現はどちらも局所的な文脈情報を学び、将来の情報を予測することである。
論文 参考訳(メタデータ) (2023-06-17T10:40:07Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension [42.57581945778631]
抽象的な対話要約は、自然言語処理における重要なスタンドアロンタスクとみなされてきた。
本稿では,新たな対話要約タスクであるSTRUctured DiaLoguE Summarizationを提案する。
変換器エンコーダ言語モデルの対話理解性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-24T04:39:54Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - He Said, She Said: Style Transfer for Shifting the Perspective of
Dialogues [75.58367095888914]
そこで本研究では,対話を非公式な初対人から形式的な第三者に書き換える視点シフト(spective shift)という,新たなスタイル転送タスクを定義した。
サンプルアプリケーションとして,対話要約データセット(SAMSum)への視点シフトの適用により,抽出ニュース要約モデルのゼロショット性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T14:16:07Z) - Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension [48.483910831143724]
対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
論文 参考訳(メタデータ) (2022-03-19T05:20:25Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。