論文の概要: An Exploratory Study on Long Dialogue Summarization: What Works and
What's Next
- arxiv url: http://arxiv.org/abs/2109.04609v1
- Date: Fri, 10 Sep 2021 01:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 00:26:09.864648
- Title: An Exploratory Study on Long Dialogue Summarization: What Works and
What's Next
- Title(参考訳): 長い対話要約に関する探索的研究--何が機能し、次に何が起こるのか
- Authors: Yusen Zhang, Ansong Ni, Tao Yu, Rui Zhang, Chenguang Zhu, Budhaditya
Deb, Asli Celikyilmaz, Ahmed Hassan Awadallah and Dragomir Radev
- Abstract要約: 本稿では,長文入力問題に対処し,関連する情報を見つけるための3つの戦略を検証し,長文対話の要約について検討する。
QMSum, MediaSum, SummScreenの3つの長文対話データセットによる実験結果から, 検索・推定パイプラインモデルが最も高い性能を示した。
- 参考スコア(独自算出の注目度): 33.1899354772074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue summarization helps readers capture salient information from long
conversations in meetings, interviews, and TV series. However, real-world
dialogues pose a great challenge to current summarization models, as the
dialogue length typically exceeds the input limits imposed by recent
transformer-based pre-trained models, and the interactive nature of dialogues
makes relevant information more context-dependent and sparsely distributed than
news articles. In this work, we perform a comprehensive study on long dialogue
summarization by investigating three strategies to deal with the lengthy input
problem and locate relevant information: (1) extended transformer models such
as Longformer, (2) retrieve-then-summarize pipeline models with several
dialogue utterance retrieval methods, and (3) hierarchical dialogue encoding
models such as HMNet. Our experimental results on three long dialogue datasets
(QMSum, MediaSum, SummScreen) show that the retrieve-then-summarize pipeline
models yield the best performance. We also demonstrate that the summary quality
can be further improved with a stronger retrieval model and pretraining on
proper external summarization datasets.
- Abstract(参考訳): 対話要約は、会議、インタビュー、テレビシリーズにおける長い会話から、読者が有能な情報を捉えるのに役立つ。
しかし、現実の対話は現在の要約モデルにとって大きな課題であり、対話長は最近のトランスフォーマーベースの事前訓練モデルによって課される入力制限を超え、対話の対話性は関連情報をニュース記事よりも文脈に依存し、疎らに分散させる。
本研究では,(1)Longformerのような拡張型トランスフォーマーモデル,(2)複数の対話音声検索手法を用いた検索・要約パイプラインモデル,(3)HMNetのような階層型対話符号化モデル,の3つの戦略を検証して,長文対話要約に関する包括的な研究を行う。
QMSum, MediaSum, SummScreenの3つの長文対話データセットによる実験結果から, 検索・推定パイプラインモデルが最も高い性能を示した。
また,より強固な検索モデルと適切な外部要約データセットを事前学習することで,要約品質をさらに向上できることを示す。
関連論文リスト
- Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - Instructive Dialogue Summarization with Query Aggregations [41.89962538701501]
本稿では,対話要約モデルの能力集合を拡張するために,命令精細言語モデルを提案する。
高品質なクエリベースの要約三重項を合成するための3段階のアプローチを提案する。
多目的インストラクティブトリプルを用いた3つの要約データセット上で、InstructDSと呼ばれる統一モデルをトレーニングすることにより、対話要約モデルの能力を拡大する。
論文 参考訳(メタデータ) (2023-10-17T04:03:00Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - A Focused Study on Sequence Length for Dialogue Summarization [68.73335643440957]
既存のモデルの出力とそれに対応する人間の参照の長さの差を解析する。
モデル設定を比較し,要約長予測のための有能な特徴を同定する。
第3に,要約長を十分に組み込むことができれば,既存のモデルに顕著な改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-09-24T02:49:48Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - DialogLM: Pre-trained Model for Long Dialogue Understanding and
Summarization [19.918194137007653]
本稿では,長い対話理解と要約のための事前学習フレームワークを提案する。
長い会話の性質を考慮し、生成前学習のためのウィンドウベースの認知的アプローチを提案する。
我々は,対話要約,抽象的質問応答,トピックセグメンテーションのタスクをカバーする,長文対話の5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-06T13:55:03Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Modality-Balanced Models for Visual Dialogue [102.35406085738325]
Visual Dialogタスクは、対話に対する次の応答を生成するために、画像情報と会話コンテキスト情報の両方を利用するモデルを必要とする。
過去の共同モダリティ(歴史とイメージ)モデルが過度に再現され,対話履歴を記憶する傾向が強いことを示す。
本稿では,共有パラメータを用いたアンサンブルとコンセンサス・ドロップアウト融合による2つのモデルの統合手法を提案する。
論文 参考訳(メタデータ) (2020-01-17T14:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。