論文の概要: Mask-then-Fill: A Flexible and Effective Data Augmentation Framework for
Event Extraction
- arxiv url: http://arxiv.org/abs/2301.02427v1
- Date: Fri, 6 Jan 2023 09:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:31:44.899892
- Title: Mask-then-Fill: A Flexible and Effective Data Augmentation Framework for
Event Extraction
- Title(参考訳): mask-then-fill: イベント抽出のための柔軟かつ効果的なデータ拡張フレームワーク
- Authors: Jun Gao, Changlong Yu, Wei Wang, Huan Zhao, Ruifeng Xu
- Abstract要約: Mask-then-Fillは、イベント抽出のための柔軟で効果的なデータ拡張フレームワークである。
最初は、随伴文の断片をランダムにマスクアウトし、それから可変長のテキストを細調整された埋め込みモデルで埋め込む。
- 参考スコア(独自算出の注目度): 32.41501526842861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Mask-then-Fill, a flexible and effective data augmentation
framework for event extraction. Our approach allows for more flexible
manipulation of text and thus can generate more diverse data while keeping the
original event structure unchanged as much as possible. Specifically, it first
randomly masks out an adjunct sentence fragment and then infills a
variable-length text span with a fine-tuned infilling model. The main advantage
lies in that it can replace a fragment of arbitrary length in the text with
another fragment of variable length, compared to the existing methods which can
only replace a single word or a fixed-length fragment. On trigger and argument
extraction tasks, the proposed framework is more effective than baseline
methods and it demonstrates particularly strong results in the low-resource
setting. Our further analysis shows that it achieves a good balance between
diversity and distributional similarity.
- Abstract(参考訳): イベント抽出のための柔軟かつ効果的なデータ拡張フレームワークであるmask-then-fillを提案する。
このアプローチは、テキストのより柔軟な操作を可能にし、元のイベント構造を可能な限り変更することなく、より多様なデータを生成することができる。
具体的には、まず随伴文の断片をランダムにマスキングし、それから可変長のテキストを細調整された埋め込みモデルで埋め込む。
主な利点は、テキスト中の任意の長さの断片を、単一の単語または固定長の断片だけを置換できる既存の方法と比較して、可変長の別の断片に置き換えることができることである。
トリガおよび引数抽出タスクにおいて,提案手法はベースライン手法よりも有効であり,低リソース設定において特に強い結果を示す。
さらに分析した結果,多様性と分布的類似性のバランスが良好であることが判明した。
関連論文リスト
- Segment Any Text: A Universal Approach for Robust, Efficient and Adaptable Sentence Segmentation [9.703886326323644]
この問題を解決するために、新しいモデル、Segment any Text (SaT)を導入します。
頑健性を高めるため,句読点への依存度を低くする事前学習方式を提案する。
適応性に対処するために、パラメータ効率の良い微調整の余分な段階を導入し、異なる領域で最先端の性能を確立する。
論文 参考訳(メタデータ) (2024-06-24T14:36:11Z) - MosaicFusion: Diffusion Models as Data Augmenters for Large Vocabulary Instance Segmentation [104.03166324080917]
MosaicFusionは、大語彙のインスタンスセグメンテーションのための、単純で効果的な拡散に基づくデータ拡張手法である。
本手法はトレーニングフリーであり,ラベル管理に依存しない。
LVISロングテールおよびオープンボキャブラリベンチマークの実験結果は、MosaicFusionが既存のインスタンスセグメンテーションモデルの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2023-09-22T17:59:42Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Topical Change Detection in Documents via Embeddings of Long Sequences [4.13878392637062]
テキストセグメンテーションのタスクを独立した教師付き予測タスクとして定式化する。
類似セクションの段落を微調整することで、学習した特徴がトピック情報をエンコードすることを示すことができます。
文レベルで操作する従来のアプローチとは異なり、我々は常により広いコンテキストを使用します。
論文 参考訳(メタデータ) (2020-12-07T12:09:37Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。