論文の概要: Mad Libs Are All You Need: Augmenting Cross-Domain Document-Level Event
Argument Data
- arxiv url: http://arxiv.org/abs/2403.03304v1
- Date: Tue, 5 Mar 2024 20:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:54:10.643819
- Title: Mad Libs Are All You Need: Augmenting Cross-Domain Document-Level Event
Argument Data
- Title(参考訳): Mad Libs: クロスドメインなドキュメント・レベル・イベント・アグメンテーション・データの追加
- Authors: Joseph Gatto, Parker Seegmiller, Omar Sharif, Sarah M. Preum
- Abstract要約: 我々は新しい生成型DocEAEデータ拡張フレームワークであるMad Lib Aug (MLA)を紹介する。
MLAを用いてF1スコア全体の平均2.6ポイントの改善を実現した。
また,ターゲット領域における役割を特定するために,統計的深度を用いた新しい指標であるRole-Depth F1(RDF1)を導入する。
- 参考スコア(独自算出の注目度): 2.1301560294088318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document-Level Event Argument Extraction (DocEAE) is an extremely difficult
information extraction problem -- with significant limitations in low-resource
cross-domain settings. To address this problem, we introduce Mad Lib Aug (MLA),
a novel generative DocEAE data augmentation framework. Our approach leverages
the intuition that Mad Libs, which are categorically masked documents used as a
part of a popular game, can be generated and solved by LLMs to produce data for
DocEAE. Using MLA, we achieve a 2.6-point average improvement in overall F1
score. Moreover, this approach achieves a 3.9 and 5.2 point average increase in
zero and few-shot event roles compared to augmentation-free baselines across
all experiments.
To better facilitate analysis of cross-domain DocEAE, we additionally
introduce a new metric, Role-Depth F1 (RDF1), which uses statistical depth to
identify roles in the target domain which are semantic outliers with respect to
roles observed in the source domain. Our experiments show that MLA augmentation
can boost RDF1 performance by an average of 5.85 points compared to
non-augmented datasets.
- Abstract(参考訳): Document-Level Event Argument extract (DocEAE)は、低リソースのクロスドメイン設定において重大な制限がある、非常に難しい情報抽出問題である。
この問題に対処するため,新しいDocEAEデータ拡張フレームワークであるMad Lib Aug (MLA)を紹介した。
我々のアプローチは、人気のあるゲームの一部として使われている文書を分類的に隠蔽するMad LibsをLLMで生成し、解き、DocEAEのデータを生成するという直感を活用する。
MLAを用いてF1スコア全体の平均2.6ポイントの改善を実現する。
さらに、この手法は、すべての実験における拡張自由ベースラインと比較して、ゼロおよび少数ショットのイベントロールの3.9および5.2ポイントの平均的な増加を達成する。
また,クロスドメインDocEAEの分析を容易にするために,統計深度を用いて,ソースドメインで観測される役割に関するセマンティックな外れ値であるターゲットドメインにおける役割を識別する新たな指標であるRole-Depth F1(RDF1)を導入する。
実験の結果,MLA拡張によりRDF1の性能が平均5.85ポイント向上することが示された。
関連論文リスト
- One Small and One Large for Document-level Event Argument Extraction [13.25071868664492]
文書レベルのイベント引数抽出(EAE)は、入力長の増加による2つの課題に直面する。
小言語モデル(SLM)に基づくCsEAE(CoおよびStructure Event Argument extract model)
第二の方法は、抽出タスクを大規模言語モデル(LLM)に適した生成タスクに変換する新しいプロンプトを導入する
論文 参考訳(メタデータ) (2024-11-08T14:44:01Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Multimodal Cross-Domain Few-Shot Learning for Egocentric Action Recognition [9.458578303096424]
マルチモーダル入力とラベルなしターゲットデータを用いた,エゴセントリックな行動認識のための新しいドメイン間数ショット学習課題に対処する。
本稿では,エゴセントリックな行動認識に関わる2つの重要な課題を同時に解決する。
まず,教師モデルを用いた学生RGBモデルへのマルチモーダル蒸留の導入を提案する。
第2に,マスクによる入力トークン数を削減する手法であるアンサンブルマスク推論を導入する。
論文 参考訳(メタデータ) (2024-05-30T10:30:07Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - FDAPT: Federated Domain-adaptive Pre-training for Language Models [15.755622890097941]
本稿では,DAPT(Domain-Adaptive Pre-Training)の具体例について述べる。
FDAPT(Federated Domain-Adaptive Pre-Training)の成績を評価するための総合的実証的研究を行った。
我々はFFDAPT(Frozen Federated Domain-Adaptive Pre-Training)という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-12T17:04:28Z) - Abstractive Summarization as Augmentation for Document-Level Event
Detection [0.0]
文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を拡張手法として用いて橋渡しする。
テキスト生成には、ビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索の4つの復号法を用いる。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
論文 参考訳(メタデータ) (2023-05-29T11:28:26Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Rationale-Guided Few-Shot Classification to Detect Abusive Language [5.977278650516324]
乱用言語検出のためのRGFS(Rationale-Guided Few-Shot Classification)を提案する。
2つの理性統合BERTアーキテクチャ(RGFSモデル)を導入し、5つの異なる乱用言語データセット上でシステムを評価する。
論文 参考訳(メタデータ) (2022-11-30T14:47:14Z) - ME-D2N: Multi-Expert Domain Decompositional Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメインのFew-Shot Learningは、異なるドメインにわたるFew-Shot Learning問題に対処することを目的としている。
本稿では,ME-D2N(Multi-Expert Domain Decompositional Network)を技術的に貢献する。
本稿では,学生モデルを2つの領域関連部分に分解する新しい領域分解モジュールを提案する。
論文 参考訳(メタデータ) (2022-10-11T09:24:47Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。