論文の概要: Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2401.06072v2
- Date: Wed, 14 Feb 2024 15:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 18:43:05.550955
- Title: Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion
- Title(参考訳): 歴史の連鎖: 時間知識グラフ補完のためのLLMによる学習と予測
- Authors: Ruilin Luo, Tianle Gu, Haoling Li, Junzhe Li, Zicheng Lin, Jiayi Li,
Yujiu Yang
- Abstract要約: 時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
- 参考スコア(独自算出の注目度): 24.545917737620197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Knowledge Graph Completion (TKGC) is a complex task involving the
prediction of missing event links at future timestamps by leveraging
established temporal structural knowledge. This paper aims to provide a
comprehensive perspective on harnessing the advantages of Large Language Models
(LLMs) for reasoning in temporal knowledge graphs, presenting an easily
transferable pipeline. In terms of graph modality, we underscore the LLMs'
prowess in discerning the structural information of pivotal nodes within the
historical chain. As for the generation mode of the LLMs utilized for
inference, we conduct an exhaustive exploration into the variances induced by a
range of inherent factors in LLMs, with particular attention to the challenges
in comprehending reverse logic. We adopt a parameter-efficient fine-tuning
strategy to harmonize the LLMs with the task requirements, facilitating the
learning of the key knowledge highlighted earlier. Comprehensive experiments
are undertaken on several widely recognized datasets, revealing that our
framework exceeds or parallels existing methods across numerous popular
metrics. Additionally, we execute a substantial range of ablation experiments
and draw comparisons with several advanced commercial LLMs, to investigate the
crucial factors influencing LLMs' performance in structured temporal knowledge
inference tasks.
- Abstract(参考訳): 時間的知識グラフ補完(TKGC)は、確立された時間的構造的知識を活用することで、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では、時間的知識グラフの推論にLarge Language Models(LLM)の利点を利用するための総合的な視点を提供することを目的とする。
グラフモダリティの観点からは、歴史的チェーン内の重要なノードの構造情報を識別するllmsの能力を強調する。
推論に用いた LLM の生成モードについては,LLM に固有の様々な要因によって引き起こされる分散を網羅的に探索し,特に逆論理を解釈する際の課題に注目した。
我々は、LCMとタスク要求を調和させるためにパラメータ効率の良い微調整戦略を採用し、より早く強調された重要な知識の学習を容易にする。
いくつかの広く認識されているデータセットで包括的な実験が行われ、我々のフレームワークは、多くの人気のあるメトリクスをまたいで既存のメソッドを超越または並列化していることが判明した。
さらに、構造化時間的知識推論タスクにおけるLLMの性能に影響を及ぼす重要な要因について検討するため、かなりの範囲のアブレーション実験を行い、先進的な商業LLMとの比較を行う。
関連論文リスト
- Enhancing Temporal Understanding in LLMs for Semi-structured Tables [50.59009084277447]
我々は、大規模言語モデル(LLM)の特定の限界を特定するために、時間的データセットの包括的な分析を行う。
調査の結果,時間的時間的質問応答に特化したデータセットであるTempTabQAが強化された。
我々は,この領域におけるLLM機能を強化するために,新しいアプローチC.L.E.A.R.を導入する。
論文 参考訳(メタデータ) (2024-07-22T20:13:10Z) - Learning on Graphs with Large Language Models(LLMs): A Deep Dive into Model Robustness [39.57155321515097]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示している。
LLMがグラフ上での学習において堅牢性を示すかどうかは不明である。
論文 参考訳(メタデータ) (2024-07-16T09:05:31Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Prompting Large Language Models with Knowledge Graphs for Question Answering Involving Long-tail Facts [50.06633829833144]
大規模言語モデル(LLM)は、様々なNLPタスクを実行するのに効果的であるが、広範囲の現実世界の知識を必要とするタスクを扱うのに苦労する。
我々は,関連する疑問に答えるために,長期的事実の知識を必要とするベンチマークを提案する。
実験の結果,LLMだけでこれらの疑問に答えるのに苦労していることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-10T15:10:20Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - CausalBench: A Comprehensive Benchmark for Causal Learning Capability of LLMs [27.362012903540492]
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2024-04-09T14:40:08Z) - Towards Modeling Learner Performance with Large Language Models [7.002923425715133]
本稿では,LLMのパターン認識とシーケンスモデリング機能が,知識追跡の領域にまで拡張できるかどうかを検討する。
ゼロショットプロンプト(ゼロショットプロンプト)とモデル微調整(モデル微調整)の2つの手法と,既存のLLM以外の知識追跡手法を比較した。
LLMベースのアプローチは最先端のパフォーマンスを達成しないが、微調整のLLMは素早いベースラインモデルの性能を上回り、標準的なベイズ的知識追跡手法と同等に機能する。
論文 参考訳(メタデータ) (2024-02-29T14:06:34Z) - An Enhanced Prompt-Based LLM Reasoning Scheme via Knowledge Graph-Integrated Collaboration [7.3636034708923255]
本研究では,知識グラフ(KG)と大規模言語モデル(LLM)の緊密な協調を含む協調学習自由推論手法を提案する。
このような協調的な手法により、より信頼性の高い知識に基づく推論を実現し、推論結果の追跡を容易にする。
論文 参考訳(メタデータ) (2024-02-07T15:56:17Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。