論文の概要: Asking and Answering Questions to Extract Event-Argument Structures
- arxiv url: http://arxiv.org/abs/2404.16413v1
- Date: Thu, 25 Apr 2024 08:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 14:28:55.228800
- Title: Asking and Answering Questions to Extract Event-Argument Structures
- Title(参考訳): イベント・Argument 構造抽出のための質問と回答
- Authors: Md Nayem Uddin, Enfa Rose George, Eduardo Blanco, Steven Corman,
- Abstract要約: 本稿では,文書レベルのイベント処理構造を抽出するための質問応答手法を提案する。
イベントが持つ可能性のある引数タイプ毎に、自動的に質問と回答を行います。
トレーニングインスタンスを増強するために、単純なスパンスワッピング技術、コア参照解決、および大規模言語モデルを使用します。
- 参考スコア(独自算出の注目度): 7.997025284201876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a question-answering approach to extract document-level event-argument structures. We automatically ask and answer questions for each argument type an event may have. Questions are generated using manually defined templates and generative transformers. Template-based questions are generated using predefined role-specific wh-words and event triggers from the context document. Transformer-based questions are generated using large language models trained to formulate questions based on a passage and the expected answer. Additionally, we develop novel data augmentation strategies specialized in inter-sentential event-argument relations. We use a simple span-swapping technique, coreference resolution, and large language models to augment the training instances. Our approach enables transfer learning without any corpora-specific modifications and yields competitive results with the RAMS dataset. It outperforms previous work, and it is especially beneficial to extract arguments that appear in different sentences than the event trigger. We also present detailed quantitative and qualitative analyses shedding light on the most common errors made by our best model.
- Abstract(参考訳): 本稿では,文書レベルのイベント処理構造を抽出するための質問応答手法を提案する。
イベントが持つ可能性のある引数タイプ毎に、自動的に質問と回答を行います。
質問は手動で定義されたテンプレートと生成変換器を使って生成される。
テンプレートベースの質問は、事前に定義されたロール固有の単語とコンテキストドキュメントからのイベントトリガを使って生成される。
トランスフォーマーに基づく質問は、パスと期待された回答に基づいて質問を定式化するために訓練された大きな言語モデルを用いて生成される。
さらに,係り受け関係に特有な新たなデータ拡張戦略を開発する。
トレーニングインスタンスを増強するために、単純なスパンスワッピング技術、コア参照解決、および大規模言語モデルを使用します。
提案手法は,コーパス固有の変更を伴わずに移動学習が可能であり,RAMSデータセットと競合する結果が得られる。
これまでの作業よりも優れており、特にイベントトリガと異なる文で現れる引数を抽出することは有益である。
また、最良モデルによる最も一般的な誤りに光を当てる、詳細な定量的および定性的な分析結果も提示する。
関連論文リスト
- Complex Reasoning over Logical Queries on Commonsense Knowledge Graphs [61.796960984541464]
論理クエリをサンプリングして作成した新しいデータセットであるCOM2(COMplex COMmonsense)を提示する。
我々は、手書きのルールと大きな言語モデルを用いて、複数の選択とテキスト生成の質問に言語化します。
COM2でトレーニングされた言語モデルでは、複雑な推論能力が大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-12T08:13:52Z) - Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Enhancing Document-level Event Argument Extraction with Contextual Clues
and Role Relevance [12.239459451494872]
ドキュメントレベルのイベント引数抽出は、ロングインプットとクロスセンス推論という新たな課題を引き起こす。
本研究では,Span-Triggerに基づくコンテキストプーリングと潜在ロールガイダンスモデルを提案する。
論文 参考訳(メタデータ) (2023-10-08T11:29:10Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Retrieval-Augmented Generative Question Answering for Event Argument
Extraction [66.24622127143044]
イベント引数抽出のための検索拡張生成QAモデル(R-GQA)を提案する。
最も類似したQAペアを検索し、現在の例のコンテキストへのプロンプトとして拡張し、引数を回答としてデコードする。
提案手法は, 様々な設定において, かなり先行した手法より優れている。
論文 参考訳(メタデータ) (2022-11-14T02:00:32Z) - Dynamic Global Memory for Document-level Argument Extraction [63.314514124716936]
文書レベルのイベント引数抽出のための,新しいグローバルなニューラルジェネレーションベースのフレームワークを提案する。
文書メモリストアを使用してコンテキストイベント情報を記録し、それを暗黙的に明示的に活用することで、後のイベントの引数の復号に役立ちます。
実験結果から,我々のフレームワークは従来の手法よりも大幅に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-18T23:45:25Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Document-Level Event Role Filler Extraction using Multi-Granularity
Contextualized Encoding [40.13163091122463]
イベントロールフィラーに対応するテキストの幅を決定するために、より大きなコンテキストのビューを必要とするため、イベント抽出は難しいタスクである。
まず、文書レベルのロールフィラー抽出において、エンドツーエンドのニューラルシーケンスモデルがどのように機能するかを検討する。
私たちの最高のシステムは、以前の作業よりもかなり優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2020-05-13T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。