論文の概要: Large Language Models for Document-Level Event-Argument Data Augmentation for Challenging Role Types
- arxiv url: http://arxiv.org/abs/2403.03304v2
- Date: Wed, 12 Jun 2024 19:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 23:35:40.776623
- Title: Large Language Models for Document-Level Event-Argument Data Augmentation for Challenging Role Types
- Title(参考訳): 文書レベルイベントアーグメントデータ拡張のための大規模言語モデル
- Authors: Joseph Gatto, Parker Seegmiller, Omar Sharif, Sarah M. Preum,
- Abstract要約: イベント引数抽出(EAE)は非常に難しい情報抽出問題である。
既存の拡張手法は、様々な現実世界のEAEコンテキストに適していない。
文書レベルのAEサンプルを合成するための2つの新しいLCMベースのデータ拡張フレームワークを導入する。
- 参考スコア(独自算出の注目度): 1.949927790632678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event Argument Extraction (EAE) is an extremely difficult information extraction problem -- with significant limitations in few-shot cross-domain (FSCD) settings. A common solution to FSCD modeling is data augmentation. Unfortunately, existing augmentation methods are not well-suited to a variety of real-world EAE contexts including (i) The need to model long documents (10+ sentences) (ii) The need to model zero and few-shot roles (i.e. event roles with little to no training representation). In this work, we introduce two novel LLM-powered data augmentation frameworks for synthesizing extractive document-level EAE samples using zero in-domain training data. Our highest performing methods provide a 16-pt increase in F1 score on extraction of zero shot role types. To better facilitate analysis of cross-domain EAE, we additionally introduce a new metric, Role-Depth F1 (RDF1), which uses statistical depth to identify roles in the target domain which are semantic outliers with respect to roles observed in the source domain. Our experiments show that LLM-based augmentation can boost RDF1 performance by up to 11 F1 points compared to baseline methods.
- Abstract(参考訳): イベント引数抽出(EAE)は、非常に難しい情報抽出問題である。
FSCDモデリングの一般的な解決策はデータ拡張である。
残念ながら、既存の拡張方法は、様々な現実世界のEAEコンテキストに適していない。
一 長文(十以上の文)のモデル化の必要性
(ii)ゼロロールと少数ショットロール(トレーニング表現がほとんどないしないイベントロール)をモデル化する必要性。
本研究では,抽出文書レベルEAEサンプルをドメイン内学習データゼロで合成するための,LLMを利用した新しい2つのデータ拡張フレームワークを提案する。
提案手法は, ゼロショットロールタイプの抽出において, F1スコアが16倍に向上することを示す。
クロスドメインEAEの分析をより容易にするため,ソースドメインで観測される役割に関するセマンティックな外れ値であるターゲットドメインにおける役割を特定するために,統計的深度を用いた新しい指標であるRole-Depth F1(RDF1)を導入する。
実験の結果, LLMによる拡張により, ベースライン法と比較して最大11F1ポイントのRDF1性能が向上することが示された。
関連論文リスト
- One Small and One Large for Document-level Event Argument Extraction [13.25071868664492]
文書レベルのイベント引数抽出(EAE)は、入力長の増加による2つの課題に直面する。
小言語モデル(SLM)に基づくCsEAE(CoおよびStructure Event Argument extract model)
第二の方法は、抽出タスクを大規模言語モデル(LLM)に適した生成タスクに変換する新しいプロンプトを導入する
論文 参考訳(メタデータ) (2024-11-08T14:44:01Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Multimodal Cross-Domain Few-Shot Learning for Egocentric Action Recognition [9.458578303096424]
マルチモーダル入力とラベルなしターゲットデータを用いた,エゴセントリックな行動認識のための新しいドメイン間数ショット学習課題に対処する。
本稿では,エゴセントリックな行動認識に関わる2つの重要な課題を同時に解決する。
まず,教師モデルを用いた学生RGBモデルへのマルチモーダル蒸留の導入を提案する。
第2に,マスクによる入力トークン数を削減する手法であるアンサンブルマスク推論を導入する。
論文 参考訳(メタデータ) (2024-05-30T10:30:07Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - FDAPT: Federated Domain-adaptive Pre-training for Language Models [15.755622890097941]
本稿では,DAPT(Domain-Adaptive Pre-Training)の具体例について述べる。
FDAPT(Federated Domain-Adaptive Pre-Training)の成績を評価するための総合的実証的研究を行った。
我々はFFDAPT(Frozen Federated Domain-Adaptive Pre-Training)という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-12T17:04:28Z) - Abstractive Summarization as Augmentation for Document-Level Event
Detection [0.0]
文書レベルのイベント検出における浅層モデルと深層モデルのパフォーマンスギャップを,抽象的なテキスト要約を拡張手法として用いて橋渡しする。
テキスト生成には、ビームサーチ、トップkサンプリング、トップpサンプリング、コントラスト検索の4つの復号法を用いる。
以上の結果から,文書タイトルを使用すると,線形SVMとRoBERTaのマクロF1スコアが2.04%,3.19%向上することがわかった。
論文 参考訳(メタデータ) (2023-05-29T11:28:26Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Rationale-Guided Few-Shot Classification to Detect Abusive Language [5.977278650516324]
乱用言語検出のためのRGFS(Rationale-Guided Few-Shot Classification)を提案する。
2つの理性統合BERTアーキテクチャ(RGFSモデル)を導入し、5つの異なる乱用言語データセット上でシステムを評価する。
論文 参考訳(メタデータ) (2022-11-30T14:47:14Z) - ME-D2N: Multi-Expert Domain Decompositional Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメインのFew-Shot Learningは、異なるドメインにわたるFew-Shot Learning問題に対処することを目的としている。
本稿では,ME-D2N(Multi-Expert Domain Decompositional Network)を技術的に貢献する。
本稿では,学生モデルを2つの領域関連部分に分解する新しい領域分解モジュールを提案する。
論文 参考訳(メタデータ) (2022-10-11T09:24:47Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。