論文の概要: Are Large Language Models Good Temporal Graph Learners?
- arxiv url: http://arxiv.org/abs/2506.05393v1
- Date: Tue, 03 Jun 2025 19:34:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.121441
- Title: Are Large Language Models Good Temporal Graph Learners?
- Title(参考訳): 大規模言語モデルは優れた時間グラフ学習者か?
- Authors: Shenyang Huang, Ali Parviz, Emma Kondrup, Zachary Yang, Zifeng Ding, Michael Bronstein, Reihaneh Rabbany, Guillaume Rabusseau,
- Abstract要約: 大規模言語モデル(LLM)用に設計された新しい時間グラフ学習フレームワークであるTGTalkerを紹介する。
TGTalkerは、時間グラフの相対バイアスを利用して関連する構造情報を抽出し、LLMの自然言語に変換し、時間近傍を予測のための追加情報として活用する。
5つの実世界のネットワークで、TGTalkerは最先端の時間グラフ手法と競合する。
- 参考スコア(独自算出の注目度): 10.964357009640105
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have recently driven significant advancements in Natural Language Processing and various other applications. While a broad range of literature has explored the graph-reasoning capabilities of LLMs, including their use of predictors on graphs, the application of LLMs to dynamic graphs -- real world evolving networks -- remains relatively unexplored. Recent work studies synthetic temporal graphs generated by random graph models, but applying LLMs to real-world temporal graphs remains an open question. To address this gap, we introduce Temporal Graph Talker (TGTalker), a novel temporal graph learning framework designed for LLMs. TGTalker utilizes the recency bias in temporal graphs to extract relevant structural information, converted to natural language for LLMs, while leveraging temporal neighbors as additional information for prediction. TGTalker demonstrates competitive link prediction capabilities compared to existing Temporal Graph Neural Network (TGNN) models. Across five real-world networks, TGTalker performs competitively with state-of-the-art temporal graph methods while consistently outperforming popular models such as TGN and HTGN. Furthermore, TGTalker generates textual explanations for each prediction, thus opening up exciting new directions in explainability and interpretability for temporal link prediction. The code is publicly available at https://github.com/shenyangHuang/TGTalker.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、自然言語処理やその他の様々なアプリケーションにおいて大きな進歩を遂げた。
グラフ上の予測子の使用を含む、LLMのグラフ推論能力について幅広い文献が研究されているが、LLMの動的グラフ(現実世界の進化するネットワーク)への応用は、いまだに調査されていない。
近年の研究では、ランダムグラフモデルによって生成される合成時間グラフについて研究されているが、実世界の時間グラフにLLMを適用することは未解決の問題である。
このギャップに対処するために、LLM用に設計された新しい時間グラフ学習フレームワークであるTGTalker(TGTalker)を紹介する。
TGTalkerは、時間グラフの相対バイアスを利用して関連する構造情報を抽出し、LLMの自然言語に変換し、時間近傍を予測のための追加情報として活用する。
TGTalkerは、既存のテンポラルグラフニューラルネットワーク(TGNN)モデルと比較して、競合するリンク予測機能を示している。
5つの実世界のネットワークにおいて、TGTalkerは最先端の時間グラフ手法と競合し、TGNやHTGNのような一般的なモデルより一貫して優れている。
さらに、TGTalkerは、各予測に対してテキストによる説明を生成し、時間的リンク予測のための説明可能性および解釈可能性に関するエキサイティングな新しい方向性を開放する。
コードはhttps://github.com/shenyangHuang/TGTalker.comで公開されている。
関連論文リスト
- Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs [10.034072706245544]
時系列グラフのシーケンス予測による時間認識型グラフ構造学習(TGSL)手法を提案する。
特に、タイムアウェアなコンテキスト埋め込みを予測し、Gumble-Top-Kを使用して、このコンテキスト埋め込みに最も近い候補エッジを選択する。
時間リンク予測ベンチマークの実験は、TGSLがTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-13T11:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。