論文の概要: Controllable Topic-Focused Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2311.06724v1
- Date: Sun, 12 Nov 2023 03:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 17:21:42.110909
- Title: Controllable Topic-Focused Abstractive Summarization
- Title(参考訳): 制御可能なトピック指向抽象要約
- Authors: Seyed Ali Bahrainian, Martin Jaggi, Carsten Eickhoff
- Abstract要約: 制御された抽象的な要約は、特定の側面をカバーするために、ソース記事の凝縮したバージョンを作成することに焦点を当てる。
本稿では,トピックに着目した要約を生成可能なトランスフォーマーアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 57.8015120583044
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Controlled abstractive summarization focuses on producing condensed versions
of a source article to cover specific aspects by shifting the distribution of
generated text towards a desired style, e.g., a set of topics. Subsequently,
the resulting summaries may be tailored to user-defined requirements. This
paper presents a new Transformer-based architecture capable of producing
topic-focused summaries. The architecture modifies the cross-attention
mechanism of the Transformer to bring topic-focus control to the generation
process while not adding any further parameters to the model. We show that our
model sets a new state of the art on the NEWTS dataset in terms of
topic-focused abstractive summarization as well as a topic-prevalence score.
Moreover, we show via extensive experiments that our proposed topical
cross-attention mechanism can be plugged into various Transformer models, such
as BART and T5, improving their performance on the CNN/Dailymail and XSum
benchmark datasets for abstractive summarization. This is achieved via
fine-tuning, without requiring training from scratch. Finally, we show through
human evaluation that our model generates more faithful summaries outperforming
the state-of-the-art Frost model.
- Abstract(参考訳): 制御された抽象要約は、生成したテキストの分布を所望のスタイル(例えばトピックのセット)にシフトすることで、特定の側面をカバーするソース記事の凝縮バージョンの作成に焦点を当てている。
その後、結果の要約はユーザー定義の要件に合わせることができる。
本稿では,トピック指向の要約を生成可能な新しいトランスフォーマティブアーキテクチャを提案する。
アーキテクチャはトランスフォーマのクロスアテンション機構を修正し、モデルにこれ以上パラメータを追加せずに、生成プロセスにトピックフォーカス制御をもたらす。
提案モデルでは,トピックに着目した抽象的な要約やトピック・プレバレンススコアの観点から,NEWTSデータセット上に新たな技術状況を設定する。
さらに,提案手法をbartやt5といった様々なトランスフォーマーモデルに適用し,cnn/dailymail や xsum ベンチマークデータセットの性能を改善し,抽象的要約を行うことができることを示す。
これは、スクラッチからトレーニングを必要とせずに、微調整によって達成される。
最後に、人間の評価を通して、我々のモデルは最先端のフロストモデルよりも忠実な要約を生成することを示す。
関連論文リスト
- Multi-View Unsupervised Image Generation with Cross Attention Guidance [23.07929124170851]
本稿では,単一カテゴリデータセット上でのポーズ条件拡散モデルの教師なし学習のための新しいパイプラインを提案する。
特定のオブジェクト部分の可視性と位置を比較することで、データセットをクラスタリングすることで、オブジェクトのポーズを識別する。
我々のモデルであるMIRAGEは、実画像における新しいビュー合成における先行研究を超越している。
論文 参考訳(メタデータ) (2023-12-07T14:55:13Z) - Enriching and Controlling Global Semantics for Text Summarization [11.037667460077813]
トランスフォーマーに基づくモデルは、流動的で情報的な要約を作成することで抽象的な要約タスクに有効であることが証明されている。
文書のグローバルな意味を捉えるために,正規化フローを付与したニューラルトピックモデルを導入し,それを要約モデルに統合する。
本手法は,5つの共通テキスト要約データセットにおいて,最先端の要約モデルより優れる。
論文 参考訳(メタデータ) (2021-09-22T09:31:50Z) - Aspect-Controllable Opinion Summarization [58.5308638148329]
アスペクトクエリに基づいてカスタマイズした要約を生成する手法を提案する。
レビューコーパスを用いて、アスペクトコントローラで強化された(リビュー、サマリ)ペアの合成トレーニングデータセットを作成する。
合成データセットを用いて事前学習したモデルを微調整し、アスペクトコントローラを変更することでアスペクト固有の要約を生成する。
論文 参考訳(メタデータ) (2021-09-07T16:09:17Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z) - TED: A Pretrained Unsupervised Summarization Model with Theme Modeling
and Denoising [44.384730968526156]
本稿では,大規模データを事前学習したトランスフォーマーに基づく非教師なし抽象要約システムを提案する。
まずニュース記事のリードバイアスを利用して、何百万ものラベルのないコーパスでモデルを事前訓練する。
テーマモデリングとデノナイズドオートエンコーダを用いて、対象ドメイン上でTEDを微調整し、生成した要約の質を高める。
論文 参考訳(メタデータ) (2020-01-03T05:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。