論文の概要: Prompt for Extraction? PAIE: Prompting Argument Interaction for Event
Argument Extraction
- arxiv url: http://arxiv.org/abs/2202.12109v1
- Date: Thu, 24 Feb 2022 14:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 22:44:40.142333
- Title: Prompt for Extraction? PAIE: Prompting Argument Interaction for Event
Argument Extraction
- Title(参考訳): 抽出のプロンプト?
PAIE:イベント引数抽出のための引数相互作用のプロンプト
- Authors: Yubo Ma, Zehao Wang, Yixin Cao, Mukai Li, Meiqi Chen, Kun Wang, Jing
Shao
- Abstract要約: 文レベルと文書レベルのイベント調停抽出(EAE)に有効で効率的なモデルPAIEを提案する。
我々は文レベルと文書レベルの両方を含む3つのベンチマークで広範な実験を行った。
その結果、PAIEから有望な改善が得られた(文レベルと文書レベルの平均で1.1%、F1が3.8%)。
- 参考スコア(独自算出の注目度): 25.969238509764658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose an effective yet efficient model PAIE for both
sentence-level and document-level Event Argument Extraction (EAE), which also
generalizes well when there is a lack of training data. On the one hand, PAIE
utilizes prompt tuning for extractive objectives to take the best advantages of
Pre-trained Language Models (PLMs). It introduces two span selectors based on
prompt to select start/end tokens among input texts for each role. On the other
hand, we capture argument interactions via multi-role prompts, and conduct
joint optimization with optimal span assignments via a bipartite matching loss.
Also, with flexible prompt design, PAIE can extract multiple arguments with the
same role, instead of conventional heuristic threshold tuning. We have
conducted extensive experiments on three benchmarks, including both sentence-
and document-level EAE. The results present a promising improvements from PAIE
(1.1% and 3.8% F1 gains on average in sentence-level and document-level
respectively). Further analysis demonstrates the efficiency, generalization to
few-shot settings and effectiveness of different extractive prompt tuning
strategies. We will release our codes upon acceptance.
- Abstract(参考訳): 本稿では,文レベルと文書レベルのイベント引数抽出(eae)の両方に対して有効かつ効率的なモデルpaieを提案する。
一方、PAIEは抽出目的の即時チューニングを利用して、事前学習言語モデル(PLM)の利点を最大限に活用する。
ロール毎に入力テキストの中から開始/終了トークンを選択するプロンプトに基づいて、2つのスパンセレクタを導入する。
一方,マルチロールプロンプトによる引数の相互作用を捕捉し,二部間マッチング損失による最適スパン代入による共同最適化を行う。
また、柔軟なプロンプト設計により、PAIEは従来のヒューリスティックしきい値チューニングの代わりに、同じ役割を持つ複数の引数を抽出することができる。
我々は文レベルと文書レベルのEAEを含む3つのベンチマークで広範な実験を行った。
その結果、PAIEから有望な改善が得られた(それぞれ1.1%、F1は3.8%)。
さらなる分析は、少数ショット設定への効率性、一般化、異なる抽出プロンプトチューニング戦略の有効性を示す。
私たちは受け入れ次第コードを公開します。
関連論文リスト
- TIS-DPO: Token-level Importance Sampling for Direct Preference Optimization With Estimated Weights [73.9088920210495]
本稿では,TIS-DPO と呼ばれるトークン単位の重要度サンプリング DPO の目的について,その報酬に基づいて各トークンに重要度を割り当てる手法を提案する。
TIS-DPOは、無害性、有用性アライメントおよび要約タスクにおいて、様々なベースライン手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-10-06T04:03:00Z) - ULTRA: Unleash LLMs' Potential for Event Argument Extraction through
Hierarchical Modeling and Pair-wise Refinement [6.39480325103865]
イベント引数抽出(EAE)は、あるイベントのロール固有のテキストスパン(例えば、引数)を特定するタスクである。
本稿では,イベントの議論をよりコスト効率よく抽出する階層的枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-24T04:13:28Z) - PromptSum: Parameter-Efficient Controllable Abstractive Summarization [4.145362426026615]
本稿では,PTとマルチタスク目的と個別エンティティプロンプトを組み合わせた抽象的な要約手法であるPromptSumを紹介する。
我々のモデル競合ROUGEは、一般的な抽象的な要約ベンチマークと、エンティティによる強い制御性を組み合わせた結果である。
論文 参考訳(メタデータ) (2023-08-06T13:54:14Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Arguments to Key Points Mapping with Prompt-based Learning [0.0]
本稿では,パラメータ対キーポイントマッピングタスクに対する2つのアプローチを提案する。
最初のアプローチは、事前訓練された言語モデルを微調整するためのプロンプトエンジニアリングを統合することである。
第二のアプローチは、PLMにおけるプロンプトベースの学習を利用して中間テキストを生成する。
論文 参考訳(メタデータ) (2022-11-28T01:48:29Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Reinforcement Learning-based Dialogue Guided Event Extraction to Exploit
Argument Relations [70.35379323231241]
本稿では、イベント引数の関係を明示的に活用することで、イベント抽出のためのより良いアプローチを提案する。
我々は増補学習と漸進学習を用いて、多回反復的なプロセスを通じて複数の引数を抽出する。
実験の結果,提案手法は7つの最先端イベント抽出法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-23T13:24:39Z) - An Effective Contextual Language Modeling Framework for Speech
Summarization with Augmented Features [13.97006782398121]
変換器による双方向表現(BERT)モデルが提案され,多くの自然言語処理タスクにおいて記録破りの成功を収めた。
本研究では,不完全な自動音声認識によるネガティブな影響を軽減するために,信頼度スコアを文表現に組み込むことを検討した。
提案手法の有効性をベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-06-01T18:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。