論文の概要: Generating Uncontextualized and Contextualized Questions for Document-Level Event Argument Extraction
- arxiv url: http://arxiv.org/abs/2404.04770v1
- Date: Sun, 7 Apr 2024 00:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 19:40:41.297998
- Title: Generating Uncontextualized and Contextualized Questions for Document-Level Event Argument Extraction
- Title(参考訳): 文書レベルイベント調停抽出のための非コンテクスト化・文脈化質問の生成
- Authors: Md Nayem Uddin, Enfa Rose George, Eduardo Blanco, Steven Corman,
- Abstract要約: 文書レベルのイベント引数抽出のための複数の質問生成戦略を提案する。
これらの戦略は人間の関与を必要とせず、意味のない質問や、イベントや関心の文書に基づく文脈化された質問をもたらす。
- 参考スコア(独自算出の注目度): 7.997025284201876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents multiple question generation strategies for document-level event argument extraction. These strategies do not require human involvement and result in uncontextualized questions as well as contextualized questions grounded on the event and document of interest. Experimental results show that combining uncontextualized and contextualized questions is beneficial, especially when event triggers and arguments appear in different sentences. Our approach does not have corpus-specific components, in particular, the question generation strategies transfer across corpora. We also present a qualitative analysis of the most common errors made by our best model.
- Abstract(参考訳): 本稿では,文書レベルのイベント引数抽出のための複数の質問生成手法を提案する。
これらの戦略は人間の関与を必要とせず、意味のない質問や、イベントや関心の文書に基づく文脈化された質問をもたらす。
実験結果から、特に異なる文にイベントトリガーや議論が現れる場合、意味のない質問と文脈化された質問を組み合わせることは有益であることが示唆された。
提案手法はコーパス固有のコンポーネントを持たず,特にコーパス間の質問生成戦略を伝達する。
また、最良のモデルによる最も一般的なエラーを定性的に分析する。
関連論文リスト
- Asking and Answering Questions to Extract Event-Argument Structures [7.997025284201876]
本稿では,文書レベルのイベント処理構造を抽出するための質問応答手法を提案する。
イベントが持つ可能性のある引数タイプ毎に、自動的に質問と回答を行います。
トレーニングインスタンスを増強するために、単純なスパンスワッピング技術、コア参照解決、および大規模言語モデルを使用します。
論文 参考訳(メタデータ) (2024-04-25T08:43:06Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Zero-Shot On-the-Fly Event Schema Induction [61.91468909200566]
本稿では,大規模な言語モデルを用いて,高レベルなイベント定義,特定のイベント,引数,それらの関係を予測・付与するソースドキュメントを生成する手法を提案する。
我々のモデルを用いて、任意のトピックに関する完全なスキーマを、手動のデータ収集、すなわちゼロショットの方法で、オンザフライで生成することができる。
論文 参考訳(メタデータ) (2022-10-12T14:37:00Z) - EA$^2$E: Improving Consistency with Event Awareness for Document-Level
Argument Extraction [52.43978926985928]
本稿では、トレーニングと推論のための拡張コンテキストを備えたイベント・アウェア・引数抽出(EA$2$E)モデルを紹介する。
WIKIEVENTSとACE2005データセットの実験結果から,EA$2$Eの有効性が示された。
論文 参考訳(メタデータ) (2022-05-30T04:33:51Z) - Document-Level Event Extraction via Human-Like Reading Process [14.530050659066383]
ドキュメントレベルのイベント抽出(DEE)は、特にトリッキーである。
本稿では,DeEを大まかな読解と精巧な読解の2段階に分解するHRE法を提案する。
実験結果は,HREが先行競合法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-07T12:10:58Z) - Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections [35.005593397252746]
談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
論文 参考訳(メタデータ) (2021-11-01T04:50:26Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Reinforcement Learning-based Dialogue Guided Event Extraction to Exploit
Argument Relations [70.35379323231241]
本稿では、イベント引数の関係を明示的に活用することで、イベント抽出のためのより良いアプローチを提案する。
我々は増補学習と漸進学習を用いて、多回反復的なプロセスを通じて複数の引数を抽出する。
実験の結果,提案手法は7つの最先端イベント抽出法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-23T13:24:39Z) - Using a resource theoretic perspective to witness and engineer quantum
generalized contextuality for prepare-and-measure scenarios [0.0]
我々は、準備・測定シナリオの構造を解析するためのツールとして、一般化文脈性の資源理論を用いる。
このフレームワークは複雑なシナリオにおける量子文脈性の証明を単純化する。
論文 参考訳(メタデータ) (2021-02-20T23:06:03Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。