論文の概要: Event Temporal Relation Extraction based on Retrieval-Augmented on LLMs
- arxiv url: http://arxiv.org/abs/2403.15273v1
- Date: Fri, 22 Mar 2024 15:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 16:59:49.694681
- Title: Event Temporal Relation Extraction based on Retrieval-Augmented on LLMs
- Title(参考訳): LLMを用いた検索に基づく事象時間関係抽出
- Authors: Xiaobin Zhang, Liangjun Zang, Qianwen Liu, Shuchong Wei, Songlin Hu,
- Abstract要約: イベント時間関係(TempRel)は、イベント関係抽出タスクの主テーマである。
伝統的な手作業でデザインされたテンプレートは、正確な時間的知識を引き出すのに苦労する。
本稿では,新しいTempRel抽出手法を提案する。
- 参考スコア(独自算出の注目度): 21.888482292039956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event temporal relation (TempRel) is a primary subject of the event relation extraction task. However, the inherent ambiguity of TempRel increases the difficulty of the task. With the rise of prompt engineering, it is important to design effective prompt templates and verbalizers to extract relevant knowledge. The traditional manually designed templates struggle to extract precise temporal knowledge. This paper introduces a novel retrieval-augmented TempRel extraction approach, leveraging knowledge retrieved from large language models (LLMs) to enhance prompt templates and verbalizers. Our method capitalizes on the diverse capabilities of various LLMs to generate a wide array of ideas for template and verbalizer design. Our proposed method fully exploits the potential of LLMs for generation tasks and contributes more knowledge to our design. Empirical evaluations across three widely recognized datasets demonstrate the efficacy of our method in improving the performance of event temporal relation extraction tasks.
- Abstract(参考訳): イベント時間関係(TempRel)は、イベント関係抽出タスクの主テーマである。
しかし、TempRelの本質的な曖昧さはタスクの難しさを増す。
プロンプトエンジニアリングの興隆に伴い、効果的なプロンプトテンプレートや言語化ツールを設計し、関連する知識を抽出することが重要である。
伝統的な手作業でデザインされたテンプレートは、正確な時間的知識を引き出すのに苦労する。
本稿では,大規模言語モデル (LLM) から抽出した知識を活用して,テンプレートや動詞のプロンプトを強化した検索強化型TempRel抽出手法を提案する。
提案手法は,多種多様なLLMの多種多様な機能を活用して,テンプレートおよび言語化器設計のための多種多様なアイデアを生成する。
提案手法は,LLMが生成タスクにもたらす可能性を完全に活用し,設計により多くの知識を提供する。
広く認識されている3つのデータセットに対する実証評価は,事象時空間関係抽出タスクの性能向上に有効であることを示す。
関連論文リスト
- Towards Efficient Resume Understanding: A Multi-Granularity Multi-Modal Pre-Training Approach [43.0592922448035]
本稿では,効率的な再帰的理解を実現するための新しいモデル ERU を提案する。
まず,履歴書中のセグメントをテキスト情報,視覚情報,レイアウト情報を統合して符号化するレイアウト対応マルチモーダル融合変換器を提案する。
次に、履歴書から構造化情報を取り出すために、多粒度シーケンスラベリングタスクでモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-13T14:31:24Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Infusing Knowledge into Large Language Models with Contextual Prompts [5.865016596356753]
入力テキスト中の文脈からプロンプトを生成することにより,知識注入のためのシンプルだが一般化可能なアプローチを提案する。
本実験は, 微調整LDMを用いて評価する手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-03T11:19:26Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - LALM: Long-Term Action Anticipation with Language Models [74.10147822693791]
言語モデル(LALM)を用いた長期的行動予測のための新しいアプローチを提案する。
本手法は,従来の行動系列を追跡する行動認識モデルと,関連する環境の詳細を記述するための視覚言語モデルを含む。
実験の結果、LALMは長期的な行動予測のタスクにおいて最先端の手法を超越していることが示された。
論文 参考訳(メタデータ) (2023-11-29T02:17:27Z) - Temporal Knowledge Question Answering via Abstract Reasoning Induction [34.42547947458204]
大規模言語モデル(LLM)における時間的知識推論の重要な課題に取り組む。
我々の提案の中心は抽象推論誘導ARIフレームワークであり、時間的推論を知識に依存しないものと知識に基づく2つの異なるフェーズに分割する。
提案手法は,2つの時間的QAデータセットに対して29.7%と9.27%の相対的な向上を達成している。
論文 参考訳(メタデータ) (2023-11-15T17:46:39Z) - Heuristic-Driven Link-of-Analogy Prompting: Enhancing Large Language
Models for Document-Level Event Argument Extraction [13.42926436351462]
本稿では,Huristic-Driven Link-of-Alogy (HD-LoA)を導入し,サンプル選択の課題に対処する。
人間の類推的推論にインスパイアされ,LLMが新たな状況に対処できるリンク・オブ・アナロジー・プロンプトを提案する。
実験により,本手法は文書レベルのAEデータセット上で,既存のプロンプト手法や数発の教師付き学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-11T12:05:01Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks [59.761411682238645]
Retrieval-augmented Generation Modelは、多くの知識集約型NLPタスクにまたがって最先端のパフォーマンスを示している。
生成器の訓練に、パスが出力をサポートするための正しい証拠を含むか否かに関わらず、パスの明快さを組み込む方法を導入する。
論文 参考訳(メタデータ) (2021-12-16T08:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。