論文の概要: Document-Level Event Extraction with Definition-Driven ICL
- arxiv url: http://arxiv.org/abs/2408.05566v1
- Date: Sat, 10 Aug 2024 14:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 18:21:45.942205
- Title: Document-Level Event Extraction with Definition-Driven ICL
- Title(参考訳): 定義駆動型ICLを用いた文書レベルイベント抽出
- Authors: Zhuoyuan Liu, Yilin Luo,
- Abstract要約: 本稿では,DDEE(Definition-driven Document-level Event extract)と呼ばれる最適化手法を提案する。
プロンプトの長さを調整し,プロンプトの明瞭度を高めることにより,大規模言語モデル(LLM)のイベント抽出性能を大幅に改善した。
さらに、構造化手法の導入と厳密な制限条件により、イベントと引数の役割抽出の精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of Natural Language Processing (NLP), Large Language Models (LLMs) have shown great potential in document-level event extraction tasks, but existing methods face challenges in the design of prompts. To address this issue, we propose an optimization strategy called "Definition-driven Document-level Event Extraction (DDEE)." By adjusting the length of the prompt and enhancing the clarity of heuristics, we have significantly improved the event extraction performance of LLMs. We used data balancing techniques to solve the long-tail effect problem, enhancing the model's generalization ability for event types. At the same time, we refined the prompt to ensure it is both concise and comprehensive, adapting to the sensitivity of LLMs to the style of prompts. In addition, the introduction of structured heuristic methods and strict limiting conditions has improved the precision of event and argument role extraction. These strategies not only solve the prompt engineering problems of LLMs in document-level event extraction but also promote the development of event extraction technology, providing new research perspectives for other tasks in the NLP field.
- Abstract(参考訳): 自然言語処理(NLP)の分野では、大規模言語モデル(LLM)は文書レベルのイベント抽出タスクにおいて大きな可能性を示しているが、既存の手法はプロンプトの設計において課題に直面している。
この問題に対処するために、我々は、"Definition-driven Document-level Event extract (DDEE)"と呼ばれる最適化戦略を提案する。
LLMのイベント抽出性能は,プロンプトの長さを調整し,ヒューリスティックスの明瞭度を高めることにより,大幅に向上した。
我々は、ロングテール効果問題を解決するためにデータバランシング技術を使用し、イベントタイプに対するモデルの一般化能力を向上した。
同時に,LLMの感度をプロンプトのスタイルに適応させるとともに,簡潔かつ包括的であることを保証するプロンプトを改良した。
さらに、構造化ヒューリスティック手法の導入と厳密な制限条件により、イベントと引数ロール抽出の精度が向上した。
これらの戦略は、文書レベルのイベント抽出におけるLCMの迅速なエンジニアリング問題を解決するだけでなく、イベント抽出技術の開発を促進し、NLP分野における他のタスクに対する新たな研究視点を提供する。
関連論文リスト
- Enhancing Document-level Argument Extraction with Definition-augmented Heuristic-driven Prompting for LLMs [0.0]
イベント引数抽出(EAE)は、構造化されていないテキストから構造化された情報を抽出するための重要な手段である。
本研究では,文書レベルEAEにおけるLarge Language Models (LLMs) の性能向上を目的とした定義拡張ヒューリスティック・プロンプト(DHP)手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T19:03:14Z) - Strategic Optimization and Challenges of Large Language Models in Object-Oriented Programming [0.0]
本研究ではオブジェクト指向プログラミング(OOP)フレームワークにおけるメソッドレベルのコード生成に焦点を当てる。
我々は,プロンプトにおける文脈情報の範囲を変化させる実験を考案した。
その結果,メソッド呼び出しの詳細が豊富なプロンプトが最もコスト効率が高いことが示唆された。
論文 参考訳(メタデータ) (2024-08-27T07:44:16Z) - Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - Decompose, Enrich, and Extract! Schema-aware Event Extraction using LLMs [45.83950260830323]
この作業は、イベント抽出を自動化するために、大規模言語モデルを活用することに焦点を当てている。
タスクをイベント検出とイベント引数抽出に分解することで、幻覚に対処する新しい方法が導入された。
論文 参考訳(メタデータ) (2024-06-03T06:55:10Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - LLMs Learn Task Heuristics from Demonstrations: A Heuristic-Driven Prompting Strategy for Document-Level Event Argument Extraction [12.673710691468264]
本稿では,Huristic-Driven Link-of-Alogy (HD-LoA)を導入し,サンプル選択の課題に対処する。
人間の類推的推論にインスパイアされ,LLMが新たな状況に対処できるリンク・オブ・アナロジー・プロンプトを提案する。
実験により,本手法は文書レベルのAEデータセット上で,既存のプロンプト手法や数発の教師付き学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-11T12:05:01Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。