論文の概要: ExtraPhrase: Efficient Data Augmentation for Abstractive Summarization
- arxiv url: http://arxiv.org/abs/2201.05313v1
- Date: Fri, 14 Jan 2022 06:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:33:21.334337
- Title: ExtraPhrase: Efficient Data Augmentation for Abstractive Summarization
- Title(参考訳): extraphrase: 抽象要約のための効率的なデータ拡張
- Authors: Mengsay Loem, Sho Takase, Masahiro Kaneko, Naoaki Okazaki
- Abstract要約: ExtraPhraseは2つのステップで擬似トレーニングデータを構築する。
ROUGEスコアにおいて,ExtraPhraseは抽象的な要約タスクの性能を0.50ポイント以上向上することを示す。
また,実際のトレーニングデータの量が著しく少ない場合,ExtraPhraseは極めて有効であることを示す。
- 参考スコア(独自算出の注目度): 27.850970793739933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural models trained with large amount of parallel data have achieved
impressive performance in abstractive summarization tasks. However, large-scale
parallel corpora are expensive and challenging to construct. In this work, we
introduce a low-cost and effective strategy, ExtraPhrase, to augment training
data for abstractive summarization tasks. ExtraPhrase constructs pseudo
training data in two steps: extractive summarization and paraphrasing. We
extract major parts of an input text in the extractive summarization step, and
obtain its diverse expressions with the paraphrasing step. Through experiments,
we show that ExtraPhrase improves the performance of abstractive summarization
tasks by more than 0.50 points in ROUGE scores compared to the setting without
data augmentation. ExtraPhrase also outperforms existing methods such as
back-translation and self-training. We also show that ExtraPhrase is
significantly effective when the amount of genuine training data is remarkably
small, i.e., a low-resource setting. Moreover, ExtraPhrase is more
cost-efficient than the existing approaches.
- Abstract(参考訳): 大量の並列データでトレーニングされたニューラルモデルは、抽象的要約タスクで印象的なパフォーマンスを達成している。
しかし、大規模並列コーパスは高価であり、建設が困難である。
本稿では,抽象的要約タスクのためのトレーニングデータを強化するために,低コストかつ効果的な戦略であるexophraseを導入する。
ExtraPhraseは2つのステップで擬似トレーニングデータを構築する。
抽出要約ステップにおいて,入力テキストの主要部分を抽出し,パラフレージングステップで多種多様な表現を得る。
実験により,データ拡張を伴わない場合と比較して,抽出要約タスクの性能をルージュスコアの0.50ポイント以上向上させることを示した。
ExtraPhraseはまた、バックトランスレーションや自己学習といった既存の手法よりも優れている。
また、ExtraPhraseは、実際のトレーニングデータの量が著しく少ない場合、すなわち低リソース環境では極めて有効であることを示す。
さらに、ExtraPhraseは既存のアプローチよりもコスト効率が高い。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - BUS:Efficient and Effective Vision-language Pre-training with Bottom-Up
Patch Summarization [89.52943129132217]
本稿では,BUS という名前のボトムアップ・パッチ・サマリゼーション手法を提案し,視覚的トークン列の簡潔な要約を効率的に学習する。
テキスト・セマンティックス・アウェア・パッチセレクタ(TSPS)をViTバックボーンに組み込んで粗い粒度のビジュアルトークン抽出を行う。
このボトムアップコラボレーションによって、BUSは高いトレーニング効率を得られると同時に、効率性を維持したり、改善したりすることができます。
論文 参考訳(メタデータ) (2023-07-17T14:08:17Z) - USB: A Unified Summarization Benchmark Across Tasks and Domains [68.82726887802856]
ウィキペディア由来のベンチマークを導入し、クラウドソースアノテーションの豊富なセットを補完し、8ドルの相互関連タスクをサポートする。
このベンチマークで様々な手法を比較し、複数のタスクにおいて、中程度の大きさの微調整されたモデルが、より大きな数発の言語モデルよりも一貫して優れていることを発見した。
論文 参考訳(メタデータ) (2023-05-23T17:39:54Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Curriculum-Guided Abstractive Summarization [45.57561926145256]
最近のTransformerベースの要約モデルは、抽象的な要約に有望なアプローチを提供してきた。
これらのモデルには2つの欠点がある:(1)コンテンツ選択が不十分な場合が多く、(2)トレーニング戦略があまり効率的ではないため、モデルの性能が制限される。
本稿では,これらの落とし穴を補うための2つの方法について検討する。まず,デコーダ内に文のクロスアテンションモジュールを配置することでトランスフォーマーネットワークを拡張し,より健全なコンテンツの抽象化を促進する。
論文 参考訳(メタデータ) (2023-02-02T11:09:37Z) - Unimodal and Multimodal Representation Training for Relation Extraction [0.0]
テキスト、レイアウト、視覚情報のマルチモーダル統合は、関係抽出(RE)を含む視覚的にリッチな文書理解(VrDU)タスクにおいて、SOTAの結果を得た。
本稿では、各データ型を反復的に除外する実験を行うことにより、REタスクの共有表現の価値を実証する。
バイモーダルテキストとレイアウトアプローチが最善であるのに対して、テキストはエンティティ関係の最も重要な単一予測器であることを示す。
論文 参考訳(メタデータ) (2022-11-11T12:39:35Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Abstractive Summarization for Low Resource Data using Domain Transfer
and Data Synthesis [1.148539813252112]
本稿では,近年の抽象的な要約手法の性能向上のために,ドメイン転送とデータ合成について検討する。
新聞データに基づいて訓練された美術モデルのチューニング状態は、学生の反射データの性能を高める可能性があることを示す。
トレーニングに組み込むとROUGEスコアがさらに増加するテンプレートベースの新しいデータを合成するモデルを提案する。
論文 参考訳(メタデータ) (2020-02-09T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。