論文の概要: Event Temporal Relation Extraction based on Retrieval-Augmented on LLMs
- arxiv url: http://arxiv.org/abs/2403.15273v1
- Date: Fri, 22 Mar 2024 15:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 16:59:49.694681
- Title: Event Temporal Relation Extraction based on Retrieval-Augmented on LLMs
- Title(参考訳): LLMを用いた検索に基づく事象時間関係抽出
- Authors: Xiaobin Zhang, Liangjun Zang, Qianwen Liu, Shuchong Wei, Songlin Hu,
- Abstract要約: イベント時間関係(TempRel)は、イベント関係抽出タスクの主テーマである。
伝統的な手作業でデザインされたテンプレートは、正確な時間的知識を引き出すのに苦労する。
本稿では,新しいTempRel抽出手法を提案する。
- 参考スコア(独自算出の注目度): 21.888482292039956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event temporal relation (TempRel) is a primary subject of the event relation extraction task. However, the inherent ambiguity of TempRel increases the difficulty of the task. With the rise of prompt engineering, it is important to design effective prompt templates and verbalizers to extract relevant knowledge. The traditional manually designed templates struggle to extract precise temporal knowledge. This paper introduces a novel retrieval-augmented TempRel extraction approach, leveraging knowledge retrieved from large language models (LLMs) to enhance prompt templates and verbalizers. Our method capitalizes on the diverse capabilities of various LLMs to generate a wide array of ideas for template and verbalizer design. Our proposed method fully exploits the potential of LLMs for generation tasks and contributes more knowledge to our design. Empirical evaluations across three widely recognized datasets demonstrate the efficacy of our method in improving the performance of event temporal relation extraction tasks.
- Abstract(参考訳): イベント時間関係(TempRel)は、イベント関係抽出タスクの主テーマである。
しかし、TempRelの本質的な曖昧さはタスクの難しさを増す。
プロンプトエンジニアリングの興隆に伴い、効果的なプロンプトテンプレートや言語化ツールを設計し、関連する知識を抽出することが重要である。
伝統的な手作業でデザインされたテンプレートは、正確な時間的知識を引き出すのに苦労する。
本稿では,大規模言語モデル (LLM) から抽出した知識を活用して,テンプレートや動詞のプロンプトを強化した検索強化型TempRel抽出手法を提案する。
提案手法は,多種多様なLLMの多種多様な機能を活用して,テンプレートおよび言語化器設計のための多種多様なアイデアを生成する。
提案手法は,LLMが生成タスクにもたらす可能性を完全に活用し,設計により多くの知識を提供する。
広く認識されている3つのデータセットに対する実証評価は,事象時空間関係抽出タスクの性能向上に有効であることを示す。
関連論文リスト
- RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Document-Level Event Extraction with Definition-Driven ICL [0.0]
本稿では,DDEE(Definition-driven Document-level Event extract)と呼ばれる最適化手法を提案する。
プロンプトの長さを調整し,プロンプトの明瞭度を高めることにより,大規模言語モデル(LLM)のイベント抽出性能を大幅に改善した。
さらに、構造化手法の導入と厳密な制限条件により、イベントと引数の役割抽出の精度が向上した。
論文 参考訳(メタデータ) (2024-08-10T14:24:09Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - Decompose, Enrich, and Extract! Schema-aware Event Extraction using LLMs [45.83950260830323]
この作業は、イベント抽出を自動化するために、大規模言語モデルを活用することに焦点を当てている。
タスクをイベント検出とイベント引数抽出に分解することで、幻覚に対処する新しい方法が導入された。
論文 参考訳(メタデータ) (2024-06-03T06:55:10Z) - Temporal Grounding of Activities using Multimodal Large Language Models [0.0]
画像ベースとテキストベースの大規模言語モデル(LLM)を時間的活動局所化のための2段階的アプローチで組み合わせることの有効性を評価する。
提案手法は既存のビデオベースLLMよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-30T09:11:02Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks [59.761411682238645]
Retrieval-augmented Generation Modelは、多くの知識集約型NLPタスクにまたがって最先端のパフォーマンスを示している。
生成器の訓練に、パスが出力をサポートするための正しい証拠を含むか否かに関わらず、パスの明快さを組み込む方法を導入する。
論文 参考訳(メタデータ) (2021-12-16T08:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。