論文の概要: Bi-Directional Iterative Prompt-Tuning for Event Argument Extraction
- arxiv url: http://arxiv.org/abs/2210.15843v1
- Date: Fri, 28 Oct 2022 02:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:57:06.608005
- Title: Bi-Directional Iterative Prompt-Tuning for Event Argument Extraction
- Title(参考訳): イベント引数抽出のための双方向反復プロンプトチューニング
- Authors: Lu Dai and Bang Wang and Wei Xiang and Yijun Mo
- Abstract要約: イベント引数抽出(EAE)のための双方向反復的プロンプトチューニング手法を提案する。
提案手法は,コンテクストエンティティの引数ロールをプロンプト構成に導入することにより,イベント引数の相互作用を探索する。
ACE 2005 の英語データセットにおける標準および低リソース設定による実験により,提案手法がピア・オブ・ザ・アーティファクト法を著しく上回ることを示した。
- 参考スコア(独自算出の注目度): 7.20903061029676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, prompt-tuning has attracted growing interests in event argument
extraction (EAE). However, the existing prompt-tuning methods have not achieved
satisfactory performance due to the lack of consideration of entity
information. In this paper, we propose a bi-directional iterative prompt-tuning
method for EAE, where the EAE task is treated as a cloze-style task to take
full advantage of entity information and pre-trained language models (PLMs).
Furthermore, our method explores event argument interactions by introducing the
argument roles of contextual entities into prompt construction. Since template
and verbalizer are two crucial components in a cloze-style prompt, we propose
to utilize the role label semantic knowledge to construct a semantic verbalizer
and design three kinds of templates for the EAE task. Experiments on the ACE
2005 English dataset with standard and low-resource settings show that the
proposed method significantly outperforms the peer state-of-the-art methods.
Our code is available at https://github.com/HustMinsLab/BIP.
- Abstract(参考訳): 近年,イベント議論抽出(EAE)への関心が高まっている。
しかし,既存のプロンプトチューニング手法は,エンティティ情報の考慮が欠如しているため,良好な性能が得られていない。
本稿では,EAEタスクをクローゼスタイルのタスクとして扱い,エンティティ情報と事前学習言語モデル(PLM)をフル活用する双方向反復型EAEプロンプトチューニング手法を提案する。
さらに,コンテクストエンティティの引数ロールをプロンプト構造に導入することで,イベント引数の相互作用を探索する。
テンプレートと動詞はクローゼスタイルのプロンプトにおいて2つの重要な要素であるので,役割ラベルの意味的知識を用いて意味的動詞化器を構築し,eaeタスクのための3種類のテンプレートを設計することを提案する。
ACE 2005 の英語データセットにおける標準および低リソース設定による実験により,提案手法がピア・オブ・ザ・アーティファクト法を著しく上回ることを示した。
私たちのコードはhttps://github.com/HustMinsLab/BIPで利用可能です。
関連論文リスト
- Learning Speech Representation From Contrastive Token-Acoustic
Pretraining [57.08426714676043]
本研究では、2つのエンコーダを用いて音素と音声を複数モーダル空間に導入するCTAP(Contrastive Token-Acoustic Pretraining)を提案する。
提案したCTAPモデルは、210k音声と音素ペアで訓練され、最小教師付きTS、VC、ASRを実現する。
論文 参考訳(メタデータ) (2023-09-01T12:35:43Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - Joint Event Extraction via Structural Semantic Matching [12.248124072173935]
イベント抽出(EE)は、情報抽出において不可欠なタスクの1つである。
本稿では,イベントタイプの意味的特徴を符号化し,対象テキストと構造的マッチングを行う。
論文 参考訳(メタデータ) (2023-06-06T07:42:39Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - How Does In-Context Learning Help Prompt Tuning? [55.78535874154915]
微調整された大きな言語モデルは、急速に拡大するスケールのために、ますます実用的ではないものになりつつある。
これはプロンプトチューニング(PT)のようなパラメータ効率のよい適応手法の使用を動機付け、凍ったモデルに少数のチューナブルな埋め込みを追加する。
近年,Singhalら (2022) はPTとICLを組み合わせた命令プロンプトチューニング (IPT) を提案している。
論文 参考訳(メタデータ) (2023-02-22T17:45:12Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - Capturing Event Argument Interaction via A Bi-Directional Entity-Level
Recurrent Decoder [7.60457018063735]
イベント引数抽出(EAE)をSeq2Seqライクな学習問題として初めて定式化する。
新たな双方向エンティティレベルリカレントデコーダ(BERD)を用いたニューラルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-01T02:55:12Z) - Event Detection as Question Answering with Entity Information [5.761450181435801]
本稿では,複数回答の可能性とエンティティのサポートを考慮した質問応答(QA)問題として,イベント検出(ED)タスクのパラダイムを提案する。
イベントトリガーの抽出は、コンテキストから回答の範囲を識別するタスクに変換されると同時に、周囲のエンティティにもフォーカスされる。
ACE2005コーパスの実験は、提案されたパラダイムがEDタスクの実行可能なソリューションであり、最先端のモデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2021-04-14T16:53:11Z) - Detecting Ongoing Events Using Contextual Word and Sentence Embeddings [110.83289076967895]
本稿では,OED(Ongoing Event Detection)タスクを紹介する。
目的は、歴史、未来、仮説、あるいは新しいものでも現在のものでもない他の形式や出来事に対してのみ、進行中のイベントの言及を検出することである。
構造化されていないテキストから進行中のイベントに関する構造化情報を抽出する必要があるアプリケーションは、OEDシステムを利用することができる。
論文 参考訳(メタデータ) (2020-07-02T20:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。