論文の概要: Textual Entailment for Event Argument Extraction: Zero- and Few-Shot
with Multi-Source Learning
- arxiv url: http://arxiv.org/abs/2205.01376v1
- Date: Tue, 3 May 2022 08:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 21:31:13.921521
- Title: Textual Entailment for Event Argument Extraction: Zero- and Few-Shot
with Multi-Source Learning
- Title(参考訳): イベント引数抽出のためのテクスチュアルエンターメント:マルチソース学習によるゼロショットとファウショット
- Authors: Oscar Sainz, Itziar Gonzalez-Dios, Oier Lopez de Lacalle, Bonan Min
and Eneko Agirre
- Abstract要約: 近年の研究では,NLPタスクを文章化を用いてテキスト・エンターテイメント・タスクとして再キャストできることが示されている。
イベント引数抽出(EAE)においてもエンテーメントが有効であることを示し,手作業によるアノテーションの必要性を50%と20%に削減した。
- 参考スコア(独自算出の注目度): 22.531385318852426
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent work has shown that NLP tasks such as Relation Extraction (RE) can be
recasted as Textual Entailment tasks using verbalizations, with strong
performance in zero-shot and few-shot settings thanks to pre-trained entailment
models. The fact that relations in current RE datasets are easily verbalized
casts doubts on whether entailment would be effective in more complex tasks. In
this work we show that entailment is also effective in Event Argument
Extraction (EAE), reducing the need of manual annotation to 50% and 20% in ACE
and WikiEvents respectively, while achieving the same performance as with full
training. More importantly, we show that recasting EAE as entailment alleviates
the dependency on schemas, which has been a road-block for transferring
annotations between domains. Thanks to the entailment, the multi-source
transfer between ACE and WikiEvents further reduces annotation down to 10% and
5% (respectively) of the full training without transfer. Our analysis shows
that the key to good results is the use of several entailment datasets to
pre-train the entailment model. Similar to previous approaches, our method
requires a small amount of effort for manual verbalization: only less than 15
minutes per event argument type is needed, and comparable results can be
achieved with users with different level of expertise.
- Abstract(参考訳): 近年の研究では、リレーション抽出(re)のようなnlpタスクは、事前訓練されたインテリメントモデルにより、ゼロショット設定と少数ショット設定で強力なパフォーマンスを持つ、動詞化を用いたテキストによるインテリメントタスクとして再キャスト可能であることが示されている。
現在のREデータセットの関係が口頭でわかりやすいという事実は、エンテーメントがより複雑なタスクに有効かどうかを疑っている。
本研究は,イベント引数抽出(eae)においても補足が有効であることを示し,手動アノテーションの必要性をaceとwikieventsでそれぞれ50%,20%に低減するとともに,フルトレーニングで同等のパフォーマンスを実現している。
さらに重要なことは、EAEをentailmentとして再キャストすることで、ドメイン間でアノテーションを転送するためのロードブロックであるスキーマへの依存が軽減されることを示している。
この追加により、ACEとWikiEvents間のマルチソース転送により、アノテーションは、転送なしでの完全なトレーニングの10%と5%(ふりかえり)に削減される。
分析の結果,複数の補足データセットを用いて補足モデルの事前学習を行うことが得られた。
従来の手法と同様に,本手法では手作業による言語化にわずかな労力を要する。イベント引数タイプあたり15分未満で,異なるレベルの専門知識を持つユーザでも同等の結果が得られます。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Divide, Conquer, and Combine: Mixture of Semantic-Independent Experts
for Zero-Shot Dialogue State Tracking [83.40120598637665]
対話状態追跡(DST)のためのゼロショット転送学習は、ドメイン内のデータを収集するコストを伴わずに、様々なタスク指向の対話ドメインを扱うのに役立つ。
既存の研究は主に一般化を強化するために、一般的なデータまたはモデルレベルの拡張方法を研究する。
我々は、見られているデータのセマンティクスを明示的に切り離す、単純で効果的な「分割、征服、結合」ソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-01T08:21:20Z) - Silver Syntax Pre-training for Cross-Domain Relation Extraction [20.603482820770356]
関係抽出(RE)は、特に現実的な領域外評価を考える場合、依然として困難な課題である。
高品質な(手動で注釈付けされた)データを取得するのは非常に高価であり、新しいドメインごとに現実的に繰り返すことはできない。
関連するタスクからのデータに対する中間的なトレーニングステップは、多くのNLPタスクで有用であることが示されているが、このセットアップには追加のアノテートデータが必要であるため、しばしば利用できない。
本稿では,REのための中間的事前学習について検討する。構文構造と意味的REとの親和性を利用して,2つのエンティティ間の最も短い依存性パスにあることで,REと密接に関連する構文関係を同定する。
論文 参考訳(メタデータ) (2023-05-18T14:49:19Z) - Can You Label Less by Using Out-of-Domain Data? Active & Transfer
Learning with Few-shot Instructions [58.69255121795761]
そこで本研究では, 微調整を必要としない, アクティブトランスファーファウショットインストラクション (ATF) アプローチを提案する。
ATFは、事前訓練された言語モデル(PLM)の内部言語知識を活用し、情報の伝達を容易にする。
アクティブラーニングによる少数の対象ドメインサンプルのアノテーションは、転送に有用であるが、アノテーションの取り組みによって影響は減少する。
論文 参考訳(メタデータ) (2022-11-21T19:03:31Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - PERFECT: Prompt-free and Efficient Few-shot Learning with Language
Models [67.3725459417758]
PERFECTは、手工芸に頼らずに数発のPLMを微調整するためのシンプルで効率的な方法である。
そこで本研究では,手作業によるタスクプロンプトを,サンプル効率の良い微調整が可能なタスク固有アダプタに置き換えることができることを示す。
幅広い数発のNLPタスクの実験では、PERFECTはシンプルで効率的でありながら、既存の最先端の数発の学習方法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2022-04-03T22:31:25Z) - Label Verbalization and Entailment for Effective Zero- and Few-Shot
Relation Extraction [25.151235270747804]
本研究は,関係抽出を包括的タスクとして再構成し,関係を15分未満で生成した関係の単純で手作りの言語化を行う。
このシステムは、事前訓練されたテキストエンターメントエンジンに依存しており、as-is(訓練例、ゼロショットなし)またはラベル付き例(数発のショットまたは完全に訓練された)でさらに微調整される。
TACREDの実験では、63%のF1ゼロショット、69%は関係16例(17%は同一条件における最良監督システムより優れている)、そして4ポイントは現状より短い。
論文 参考訳(メタデータ) (2021-09-08T14:04:50Z) - Zero-Resource Multi-Dialectal Arabic Natural Language Understanding [0.0]
本稿では,現代標準アラビア語(MSA)データのみに基づく事前学習言語モデルを微調整する場合に,Dialectal Arabic(DA)のゼロショット性能について検討する。
ラベルなしDAデータによる自己学習を提案し、名前付きエンティティ認識(NER)、POSタグ付け(POS)、SRD(Sarcasm Detection)のコンテキストに適用する。
その結果,未ラベルDAデータを用いた自己学習の有効性が示された。
論文 参考訳(メタデータ) (2021-04-14T02:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。