論文の概要: Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2405.14170v2
- Date: Fri, 20 Dec 2024 13:15:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:22:25.430693
- Title: Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning
- Title(参考訳): 時間的知識グラフ推論のための大規模言語モデル誘導動的適応
- Authors: Jiapu Wang, Kai Sun, Linhao Luo, Wei Wei, Yongli Hu, Alan Wee-Chung Liew, Shirui Pan, Baocai Yin,
- Abstract要約: 大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
- 参考スコア(独自算出の注目度): 87.10396098919013
- License:
- Abstract: Temporal Knowledge Graph Reasoning (TKGR) is the process of utilizing temporal information to capture complex relations within a Temporal Knowledge Graph (TKG) to infer new knowledge. Conventional methods in TKGR typically depend on deep learning algorithms or temporal logical rules. However, deep learning-based TKGRs often lack interpretability, whereas rule-based TKGRs struggle to effectively learn temporal rules that capture temporal patterns. Recently, Large Language Models (LLMs) have demonstrated extensive knowledge and remarkable proficiency in temporal reasoning. Consequently, the employment of LLMs for Temporal Knowledge Graph Reasoning (TKGR) has sparked increasing interest among researchers. Nonetheless, LLMs are known to function as black boxes, making it challenging to comprehend their reasoning process. Additionally, due to the resource-intensive nature of fine-tuning, promptly updating LLMs to integrate evolving knowledge within TKGs for reasoning is impractical. To address these challenges, in this paper, we propose a Large Language Models-guided Dynamic Adaptation (LLM-DA) method for reasoning on TKGs. Specifically, LLM-DA harnesses the capabilities of LLMs to analyze historical data and extract temporal logical rules. These rules unveil temporal patterns and facilitate interpretable reasoning. To account for the evolving nature of TKGs, a dynamic adaptation strategy is proposed to update the LLM-generated rules with the latest events. This ensures that the extracted rules always incorporate the most recent knowledge and better generalize to the predictions on future events. Experimental results show that without the need of fine-tuning, LLM-DA significantly improves the accuracy of reasoning over several common datasets, providing a robust framework for TKGR tasks.
- Abstract(参考訳): TKGR(Temporal Knowledge Graph Reasoning)は、時間的情報を利用して、時間的知識グラフ(TKG)内の複雑な関係を捉え、新しい知識を推論するプロセスである。
TKGRの従来の手法は、一般的に深層学習アルゴリズムや時間論理規則に依存している。
しかし、ディープラーニングベースのTKGRは解釈可能性に欠けることが多いが、ルールベースのTKGRは時間的パターンをキャプチャする時間的規則を効果的に学習するのに苦労している。
近年,Large Language Models (LLMs) は時間的推論において広範囲の知識と卓越した能力を示した。
その結果, 時間知識グラフ推論(TKGR)におけるLLMの利用が, 研究者の間での関心が高まっている。
それでも、LSMはブラックボックスとして機能することが知られており、それらの推論過程を理解することは困難である。
さらに、微調整の資源集約的な性質のため、即座にLLMを更新し、推論のためのTKG内で進化する知識を統合することは不可能である。
本稿では,TKGの推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
具体的には、LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
これらの規則は時間的パターンを明らかにし、解釈可能な推論を促進する。
TKGsの進化的性質を考慮し,LLM生成規則を更新する動的適応戦略を提案する。
これにより、抽出されたルールが常に最新の知識を取り入れ、将来の事象の予測により良い一般化をすることができる。
実験結果から, 微調整を必要とせずに, LLM-DAは複数の共通データセットに対する推論精度を大幅に向上し, TKGRタスクの堅牢なフレームワークを提供することがわかった。
関連論文リスト
- Logic Augmented Generation [1.534667887016089]
大きな言語モデル(LLM)はこれらの制限を克服し、オープンなタスクや非構造化環境に適している。
両世界の利点を組み合わせた論理拡張生成(LAG)を構想する。
LAGを総合的な知性、すなわち医療診断と気候予測の2つのタスクで実証する。
論文 参考訳(メタデータ) (2024-11-21T10:54:35Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - GenTKG: Generative Forecasting on Temporal Knowledge Graph with Large Language Models [35.594662986581746]
大規模言語モデル (LLM) は、従来の埋め込みベースおよびルールベースの手法が支配する時間的知識グラフ (tKG) 領域に関心を抱いている。
本稿では、時間的論理ルールに基づく検索戦略と、パラメータ効率の少ない命令チューニングを組み合わせた、GenTKGという新しい検索拡張生成フレームワークを提案する。
実験により、GenTKGは計算資源の少ない時間的関係予測法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-11T18:27:12Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Temporal Knowledge Graph Forecasting Without Knowledge Using In-Context
Learning [23.971206470486468]
本稿では,関連する歴史的事実をプロンプトに変換し,トークン確率を用いてランキング予測を生成する枠組みを提案する。
驚いたことに、LLMは最先端のTKGモデルと同等に動作している。
また,エンティティ/リレーション名の代わりに数値指標を用いると,性能に悪影響を及ぼさないことも判明した。
論文 参考訳(メタデータ) (2023-05-17T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。