論文の概要: Timeline-based Sentence Decomposition with In-Context Learning for Temporal Fact Extraction
- arxiv url: http://arxiv.org/abs/2405.10288v3
- Date: Tue, 18 Jun 2024 08:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 01:35:12.908678
- Title: Timeline-based Sentence Decomposition with In-Context Learning for Temporal Fact Extraction
- Title(参考訳): 時間的ファクト抽出のためのインコンテキスト学習を用いたタイムラインに基づく文分割
- Authors: Jianhao Chen, Haoyuan Ouyang, Junyang Ren, Wentao Ding, Wei Hu, Yuzhong Qu,
- Abstract要約: 本稿では,自然言語テキストから時間的事実を抽出する方法について述べる。
本稿では,大規模言語モデル(LLM)と文脈内学習を用いたタイムラインに基づく文分解手法を提案する。
実験の結果, TSDRE は HyperRED-Temporal データセットと ComplexTRED データセットの両方で最先端の結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 19.96263282146533
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Facts extraction is pivotal for constructing knowledge graphs. Recently, the increasing demand for temporal facts in downstream tasks has led to the emergence of the task of temporal fact extraction. In this paper, we specifically address the extraction of temporal facts from natural language text. Previous studies fail to handle the challenge of establishing time-to-fact correspondences in complex sentences. To overcome this hurdle, we propose a timeline-based sentence decomposition strategy using large language models (LLMs) with in-context learning, ensuring a fine-grained understanding of the timeline associated with various facts. In addition, we evaluate the performance of LLMs for direct temporal fact extraction and get unsatisfactory results. To this end, we introduce TSDRE, a method that incorporates the decomposition capabilities of LLMs into the traditional fine-tuning of smaller pre-trained language models (PLMs). To support the evaluation, we construct ComplexTRED, a complex temporal fact extraction dataset. Our experiments show that TSDRE achieves state-of-the-art results on both HyperRED-Temporal and ComplexTRED datasets.
- Abstract(参考訳): ファクト抽出は知識グラフを構築する上で重要である。
近年,下流タスクにおける時間的事実の需要が増加し,時間的事実抽出のタスクが出現している。
本稿では,自然言語テキストから時間的事実を抽出する方法について述べる。
従来の研究は、複雑な文に時間と成果の対応を確立するという課題に対処できなかった。
このハードルを克服するために,大規模言語モデル(LLM)とテキスト内学習を用いたタイムラインに基づく文分解手法を提案する。
さらに, 直接的事実抽出のためのLCMの性能評価を行い, 不満足な結果を得た。
そこで本研究では,LLMの分解機能を,より小さな事前学習言語モデル(PLM)の従来の微調整に組み込む手法であるTLDREを紹介する。
評価を支援するために,複雑な時間的事実抽出データセットであるcomplexTREDを構築した。
実験の結果, TSDRE は HyperRED-Temporal データセットと ComplexTRED データセットの両方で最先端の結果が得られることがわかった。
関連論文リスト
- Enhancing Temporal Understanding in LLMs for Semi-structured Tables [50.59009084277447]
我々は、大規模言語モデル(LLM)の特定の限界を特定するために、時間的データセットの包括的な分析を行う。
調査の結果,時間的時間的質問応答に特化したデータセットであるTempTabQAが強化された。
我々は,この領域におけるLLM機能を強化するために,新しいアプローチC.L.E.A.R.を導入する。
論文 参考訳(メタデータ) (2024-07-22T20:13:10Z) - SHINE: Saliency-aware HIerarchical NEgative Ranking for Compositional Temporal Grounding [52.98133831401225]
時間的グラウンドディング(英: Temporal grounding、ビデオモーメント検索(英語版))は、所定のクエリ文に対応するビデオセグメントを特定することを目的としている。
本稿では, GPT-3.5-Turbo を用いた負のクエリ構築のための大規模言語モデル駆動手法を提案する。
本稿では,ビデオと階層的負のクエリ間の多粒度意味的関係を学習するモデルを提案する。
論文 参考訳(メタデータ) (2024-07-06T16:08:17Z) - Event Temporal Relation Extraction based on Retrieval-Augmented on LLMs [21.888482292039956]
イベント時間関係(TempRel)は、イベント関係抽出タスクの主テーマである。
伝統的な手作業でデザインされたテンプレートは、正確な時間的知識を引き出すのに苦労する。
本稿では,新しいTempRel抽出手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T15:16:10Z) - Enhancing Systematic Decompositional Natural Language Inference Using
Informal Logic [53.363888563647976]
我々は,分解包含データセットに注釈を付けるための一貫した理論的なアプローチを開発した。
得られたデータセットRDTEは,従来よりも内部整合性(+9%)が高いことがわかった。
また, 知識蒸留によるRDTE指向エンテーメント分類器の訓練や, 現代のニューロシンボリック推論エンジンへの導入により, 結果が大幅に向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - A Glitch in the Matrix? Locating and Detecting Language Model Grounding with Fakepedia [57.31074448586854]
大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T17:35:42Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - SWoTTeD: An Extension of Tensor Decomposition to Temporal Phenotyping [0.0]
隠れ時間パターンを発見する新しい手法SWoTTeD(Sliding Window for Temporal Decomposition)を提案する。
我々は, 合成と実世界の両方のデータセットを用いて提案手法を検証し, パリ大病院のデータを用いた独自のユースケースを提案する。
その結果、SWoTTeDは最近の最先端テンソル分解モデルと同程度の精度で再現可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-02T13:42:11Z) - Temporal Relation Extraction with a Graph-Based Deep Biaffine Attention
Model [0.0]
本稿では, ディープ・バイファイン・アテンションに基づく新しい時間情報抽出モデルを提案する。
本研究では,時間的関係抽出における最先端性能の実現を実験的に実証した。
論文 参考訳(メタデータ) (2022-01-16T19:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。