論文の概要: Mad Libs Are All You Need: Augmenting Cross-Domain Document-Level Event
Argument Data
- arxiv url: http://arxiv.org/abs/2403.03304v1
- Date: Tue, 5 Mar 2024 20:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:54:10.643819
- Title: Mad Libs Are All You Need: Augmenting Cross-Domain Document-Level Event
Argument Data
- Title(参考訳): Mad Libs: クロスドメインなドキュメント・レベル・イベント・アグメンテーション・データの追加
- Authors: Joseph Gatto, Parker Seegmiller, Omar Sharif, Sarah M. Preum
- Abstract要約: 我々は新しい生成型DocEAEデータ拡張フレームワークであるMad Lib Aug (MLA)を紹介する。
MLAを用いてF1スコア全体の平均2.6ポイントの改善を実現した。
また,ターゲット領域における役割を特定するために,統計的深度を用いた新しい指標であるRole-Depth F1(RDF1)を導入する。
- 参考スコア(独自算出の注目度): 2.1301560294088318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document-Level Event Argument Extraction (DocEAE) is an extremely difficult
information extraction problem -- with significant limitations in low-resource
cross-domain settings. To address this problem, we introduce Mad Lib Aug (MLA),
a novel generative DocEAE data augmentation framework. Our approach leverages
the intuition that Mad Libs, which are categorically masked documents used as a
part of a popular game, can be generated and solved by LLMs to produce data for
DocEAE. Using MLA, we achieve a 2.6-point average improvement in overall F1
score. Moreover, this approach achieves a 3.9 and 5.2 point average increase in
zero and few-shot event roles compared to augmentation-free baselines across
all experiments.
To better facilitate analysis of cross-domain DocEAE, we additionally
introduce a new metric, Role-Depth F1 (RDF1), which uses statistical depth to
identify roles in the target domain which are semantic outliers with respect to
roles observed in the source domain. Our experiments show that MLA augmentation
can boost RDF1 performance by an average of 5.85 points compared to
non-augmented datasets.
- Abstract(参考訳): Document-Level Event Argument extract (DocEAE)は、低リソースのクロスドメイン設定において重大な制限がある、非常に難しい情報抽出問題である。
この問題に対処するため,新しいDocEAEデータ拡張フレームワークであるMad Lib Aug (MLA)を紹介した。
我々のアプローチは、人気のあるゲームの一部として使われている文書を分類的に隠蔽するMad LibsをLLMで生成し、解き、DocEAEのデータを生成するという直感を活用する。
MLAを用いてF1スコア全体の平均2.6ポイントの改善を実現する。
さらに、この手法は、すべての実験における拡張自由ベースラインと比較して、ゼロおよび少数ショットのイベントロールの3.9および5.2ポイントの平均的な増加を達成する。
また,クロスドメインDocEAEの分析を容易にするために,統計深度を用いて,ソースドメインで観測される役割に関するセマンティックな外れ値であるターゲットドメインにおける役割を識別する新たな指標であるRole-Depth F1(RDF1)を導入する。
実験の結果,MLA拡張によりRDF1の性能が平均5.85ポイント向上することが示された。
関連論文リスト
- A Data Centric Approach for Unsupervised Domain Generalization via
Retrieval from Web Scale Multimodal Data [14.695102732987774]
教師なし領域一般化問題のマルチモーダル版に取り組む。
私たちのフレームワークは、ソースデータセットとターゲットタスクの関係を明示的に想定していません。
20の多様なターゲットデータセットに対して、精度を最大10%向上させる。
論文 参考訳(メタデータ) (2024-02-06T21:29:37Z) - Abstractive Summarization as Augmentation for Document-Level Event
Detection [0.0]
文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を拡張手法として用いて橋渡しする。
テキスト生成には、ビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索の4つの復号法を用いる。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
論文 参考訳(メタデータ) (2023-05-29T11:28:26Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - MADAv2: Advanced Multi-Anchor Based Active Domain Adaptation
Segmentation [98.09845149258972]
セマンティックセグメンテーションタスクに関するドメイン適応を支援するために,アクティブなサンプル選択を導入する。
これらのサンプルを手動でアノテートする作業量が少ないため、ターゲット領域分布の歪みを効果的に緩和することができる。
長期分布問題を緩和するために、強力な半教師付きドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:55:22Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - A Multi-Document Coverage Reward for RELAXed Multi-Document
Summarization [11.02198476454955]
本稿では,MDSの基準値と入力文書のカバレッジのバランスをとる報酬を付与したMDSベースラインの微調整を提案する。
Multi-NewsおよびWCEP MDSデータセットに対する実験結果から、ベースライン上での平均ROUGEスコアが+0.95pp、METEORスコアが+3.17ppと大幅に改善された。
論文 参考訳(メタデータ) (2022-03-06T07:33:01Z) - GPL: Generative Pseudo Labeling for Unsupervised Domain Adaptation of
Dense Retrieval [43.43401655948693]
我々は、新しい教師なしドメイン適応手法Generative Pseudo Labeling (GPL)を提案する。
6つの代表的なドメイン特化データセットにおいて、提案手法は最先端の高密度検索手法を最大8.9ポイントのnDCG@10で上回っている。
論文 参考訳(メタデータ) (2021-12-14T17:34:43Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Inductive Unsupervised Domain Adaptation for Few-Shot Classification via
Clustering [16.39667909141402]
ショットの分類は、多様なドメインに適応する必要がある場合、苦労する傾向があります。
本稿では、ClusteringによるFew-shot分類のためのドメイン適応性能を改善するためのフレームワークDaFeCを紹介する。
提案手法は, 絶対利得(分類精度)が4.95%, 9.55%, 3.99%, 11.62%であった。
論文 参考訳(メタデータ) (2020-06-23T08:17:48Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。