論文の概要: ULTRA: Unleash LLMs' Potential for Event Argument Extraction through
Hierarchical Modeling and Pair-wise Refinement
- arxiv url: http://arxiv.org/abs/2401.13218v1
- Date: Wed, 24 Jan 2024 04:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 15:30:10.153898
- Title: ULTRA: Unleash LLMs' Potential for Event Argument Extraction through
Hierarchical Modeling and Pair-wise Refinement
- Title(参考訳): ultra:unleash llmsの階層モデリングとペアワイズによるイベント引数抽出の可能性
- Authors: Xinliang Frederick Zhang, Carter Blum, Temma Choji, Shalin Shah,
Alakananda Vempala
- Abstract要約: イベント引数抽出(EAE)は、あるイベントのロール固有のテキストスパン(例えば、引数)を特定するタスクである。
本稿では,イベントの議論をよりコスト効率よく抽出する階層的枠組みを提案する。
- 参考スコア(独自算出の注目度): 6.39480325103865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural extraction of events within discourse is critical since it avails
a deeper understanding of communication patterns and behavior trends. Event
argument extraction (EAE), at the core of event-centric understanding, is the
task of identifying role-specific text spans (i.e., arguments) for a given
event. Document-level EAE (DocEAE) focuses on arguments that are scattered
across an entire document. In this work, we explore the capabilities of open
source Large Language Models (LLMs), i.e., Flan-UL2, for the DocEAE task. To
this end, we propose ULTRA, a hierarchical framework that extracts event
arguments more cost-effectively -- the method needs as few as 50 annotations
and doesn't require hitting costly API endpoints. Further, it alleviates the
positional bias issue intrinsic to LLMs. ULTRA first sequentially reads text
chunks of a document to generate a candidate argument set, upon which ULTRA
learns to drop non-pertinent candidates through self-refinement. We further
introduce LEAFER to address the challenge LLMs face in locating the exact
boundary of an argument span. ULTRA outperforms strong baselines, which include
strong supervised models and ChatGPT, by 9.8% when evaluated by the exact match
(EM) metric.
- Abstract(参考訳): 会話内のイベントの構造的抽出は、コミュニケーションパターンや行動トレンドをより深く理解する上で重要である。
イベント引数抽出(英: Event argument extract、EAE)は、イベント中心の理解の中心にある、あるイベントに対する役割固有のテキストスパン(すなわち、引数)を特定するタスクである。
ドキュメントレベルEAE(DocEAE)は、ドキュメント全体に散在する引数に焦点を当てている。
本研究では,オープンソースのLarge Language Models(LLM),すなわちFlan-UL2のDocEAEタスク機能について検討する。
この目的のために、我々は、イベント引数をよりコスト効率よく抽出する階層的なフレームワークであるULTRAを提案する。
さらに、LSMに固有の位置バイアス問題を緩和する。
ultra firstは文書のテキストチャンクを順次読み込んで候補引数集合を生成し、ultraは自己定義を通じて無関係な候補をドロップすることを学習する。
さらに、LEAFERを導入して、LLMの課題に対処し、引数スパンの正確な境界を突き止める。
ultraは、強力な教師付きモデルやchatgptを含む強力なベースラインを、正確な一致(em)メトリックで評価すると9.8%上回っている。
関連論文リスト
- Tree-Based Hard Attention with Self-Motivation for Large Language Models [7.2677650379517775]
大きな言語モデル(LLM)は、平易なテキストの理解と生成に優れる。
階層的なテキスト構造を扱うように特別に調整されていない。
本稿では,大規模言語モデルのための自己モチベーションを用いた木ベースハードアテンションという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T00:40:51Z) - MAVEN-Arg: Completing the Puzzle of All-in-One Event Understanding
Dataset with Event Argument Annotation [107.41719717693199]
MAVEN-Argは、イベント検出、イベント引数抽出、イベント関係抽出をサポートする最初のオールインワンデータセットである。
EAEベンチマークでは、(1)162のイベントタイプと612の引数ロールをカバーする包括的なスキーマ、(2)98,591のイベントと290,613の引数を含む大規模なデータスケール、(3)EAEのすべてのタスク変種をサポートする包括的なアノテーションの3つの利点がある。
論文 参考訳(メタデータ) (2023-11-15T16:52:14Z) - Enhancing Document-level Event Argument Extraction with Contextual Clues
and Role Relevance [12.239459451494872]
ドキュメントレベルのイベント引数抽出は、ロングインプットとクロスセンス推論という新たな課題を引き起こす。
本研究では,Span-Triggerに基づくコンテキストプーリングと潜在ロールガイダンスモデルを提案する。
論文 参考訳(メタデータ) (2023-10-08T11:29:10Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - PEARL: Prompting Large Language Models to Plan and Execute Actions Over
Long Documents [78.27865456183397]
長い文書に対する推論を改善するためのフレームワークであるPEARLを提案する。
PEARLの各ステージは、最小限の人間の入力でゼロショットまたは少数ショットのプロンプトによって実装される。
PEARLをQuALITYデータセットの挑戦的なサブセットで評価し、長い物語テキストに対して複雑な推論を必要とする質問を含む。
論文 参考訳(メタデータ) (2023-05-23T23:06:04Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - Reinforcement Learning-based Dialogue Guided Event Extraction to Exploit
Argument Relations [70.35379323231241]
本稿では、イベント引数の関係を明示的に活用することで、イベント抽出のためのより良いアプローチを提案する。
我々は増補学習と漸進学習を用いて、多回反復的なプロセスを通じて複数の引数を抽出する。
実験の結果,提案手法は7つの最先端イベント抽出法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-23T13:24:39Z) - Document-Level Event Role Filler Extraction using Multi-Granularity
Contextualized Encoding [40.13163091122463]
イベントロールフィラーに対応するテキストの幅を決定するために、より大きなコンテキストのビューを必要とするため、イベント抽出は難しいタスクである。
まず、文書レベルのロールフィラー抽出において、エンドツーエンドのニューラルシーケンスモデルがどのように機能するかを検討する。
私たちの最高のシステムは、以前の作業よりもかなり優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2020-05-13T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。