論文の概要: Abstractive Summarization as Augmentation for Document-Level Event
Detection
- arxiv url: http://arxiv.org/abs/2305.18023v1
- Date: Mon, 29 May 2023 11:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:21:17.969038
- Title: Abstractive Summarization as Augmentation for Document-Level Event
Detection
- Title(参考訳): 文書レベルイベント検出のための拡張としての抽象要約
- Authors: Janko Vidakovi\'c and Filip Karlo Do\v{s}ilovi\'c and Domagoj
Plu\v{s}\v{c}ec
- Abstract要約: 文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を拡張手法として用いて橋渡しする。
テキスト生成には、ビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索の4つの復号法を用いる。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based models have consistently produced substantial performance
gains across a variety of NLP tasks, compared to shallow models. However, deep
models are orders of magnitude more computationally expensive than shallow
models, especially on tasks with large sequence lengths, such as document-level
event detection. In this work, we attempt to bridge the performance gap between
shallow and deep models on document-level event detection by using abstractive
text summarization as an augmentation method. We augment the DocEE dataset by
generating abstractive summaries of examples from low-resource classes. For
classification, we use linear SVM with TF-IDF representations and RoBERTa-base.
We use BART for zero-shot abstractive summarization, making our augmentation
setup less resource-intensive compared to supervised fine-tuning. We experiment
with four decoding methods for text generation, namely beam search, top-k
sampling, top-p sampling, and contrastive search. Furthermore, we investigate
the impact of using document titles as additional input for classification. Our
results show that using the document title offers 2.04% and 3.19% absolute
improvement in macro F1-score for linear SVM and RoBERTa, respectively.
Augmentation via summarization further improves the performance of linear SVM
by about 0.5%, varying slightly across decoding methods. Overall, our
augmentation setup yields insufficient improvements for linear SVM compared to
RoBERTa.
- Abstract(参考訳): トランスフォーマーベースのモデルでは、浅いモデルに比べて、様々なNLPタスクでパフォーマンスが大幅に向上している。
しかし、深層モデルは、特に文書レベルのイベント検出のような長いシーケンス長を持つタスクにおいて、浅いモデルよりも計算的に高価である。
本研究では,文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を用いて補足する手法を提案する。
低リソースクラスからサンプルの抽象的な要約を生成することでDocEEデータセットを拡張する。
分類には、TF-IDF表現を持つ線形SVMとRoBERTaベースを用いる。
ゼロショットの抽象的な要約にBARTを使用し、教師付き微調整に比べて拡張セットアップのリソース集約を減らした。
我々はテキスト生成のための4つの復号法、すなわちビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索を実験した。
さらに,分類のための追加入力として文書タイトルを使うことによる影響についても検討する。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
要約による拡張により、線形SVMの性能は0.5%向上し、復号法で若干異なる。
全体としては,RoBERTaに比べて線形SVMでは改善が不十分である。
関連論文リスト
- Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - SRFormer: Text Detection Transformer with Incorporated Segmentation and
Regression [6.74412860849373]
本稿では,アマルガメーションと回帰を併用した統合DTRモデルSRFormerを提案する。
実験分析により,初期デコーダ層で良好なセグメンテーション予測が得られることが示された。
提案手法の強靭性,優れたトレーニングとデータ効率,および最先端の性能について検討した。
論文 参考訳(メタデータ) (2023-08-21T07:34:31Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Meeting Summarization with Pre-training and Clustering Methods [6.47783315109491]
HMNetcitehmnetは、ワードレベルのトランスフォーマーとターンレベルのトランスフォーマーの両方をベースラインとして使用する階層型ネットワークである。
中間クラスタリングステップでQMSumciteqmsumの位置列列化アプローチを拡張する。
ベースラインモデルの性能を,要約に有効な最先端言語モデルであるBARTと比較する。
論文 参考訳(メタデータ) (2021-11-16T03:14:40Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - Pre-training Tasks for Embedding-based Large-scale Retrieval [68.01167604281578]
本稿では,大規模クエリ文書検索問題について考察する。
クエリ(例えば質問)が与えられたら、関連するドキュメントのセットを大きなドキュメントコーパスから返します。
本稿では, 組込み型トランスフォーマーモデルの学習の鍵となる要素が, 事前学習作業のセットであることを示す。
論文 参考訳(メタデータ) (2020-02-10T16:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。