論文の概要: Self-Exploring Language Models for Explainable Link Forecasting on Temporal Graphs via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.00975v1
- Date: Sun, 31 Aug 2025 19:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.48502
- Title: Self-Exploring Language Models for Explainable Link Forecasting on Temporal Graphs via Reinforcement Learning
- Title(参考訳): 強化学習による時間グラフ上の説明可能なリンク予測のための自己探索型言語モデル
- Authors: Zifeng Ding, Shenyang Huang, Zeyu Cao, Emma Kondrup, Zachary Yang, Xingyue Huang, Yuan Sui, Zhangdie Yuan, Yuqicheng Zhu, Xianglong Hu, Yuan He, Farimah Poursafaei, Michael Bronstein, Andreas Vlachos,
- Abstract要約: 時間グラフ(ReaL-TG)のための推論強化学習法を提案する。
ReaL-TGはグラフモデルを微調整して説明可能なリンク予測を行う強化学習フレームワークである。
LLM-as-a-Judgeシステムとランキングメトリクスを組み合わせた新しい評価プロトコルを提案する。
- 参考スコア(独自算出の注目度): 24.718280040158245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting future links is a central task in temporal graph (TG) reasoning, requiring models to leverage historical interactions to predict upcoming ones. Traditional neural approaches, such as temporal graph neural networks, achieve strong performance but lack explainability and cannot be applied to unseen graphs without retraining. Recent studies have begun to explore using large language models (LLMs) for graph reasoning, but most of them are constrained to static graphs or small synthetic TGs and lack the evaluation of the quality of reasoning traces generated by LLMs. In this work, we present Reasoning-Enhanced Learning for Temporal Graphs (ReaL-TG), a reinforcement learning framework that fine-tunes LLMs to perform explainable link forecasting on real-world TGs. ReaL-TG uses outcome-based reward to encourage models to self-explore reasoning strategies from graph structure and to produce explanations that directly justify their predictions. To enable evaluation on LLM-generated reasoning traces, we propose a new evaluation protocol combining ranking metrics with an LLM-as-a-Judge system that assesses both the quality of reasoning and the impact of hallucinations. Experiments with ReaL-TG-4B, obtained by fine-tuning Qwen3-4B under our framework, show that it outperforms much larger frontier LLMs, including GPT-5 mini, on ranking metrics, while producing high-quality explanations confirmed by both the LLM judge and human evaluation.
- Abstract(参考訳): 将来のリンクを予測することは、時間グラフ(TG)推論における中心的なタスクであり、モデルが次のリンクを予測するために歴史的な相互作用を活用する必要がある。
時間グラフニューラルネットワークのような従来のニューラルネットワークは、強い性能を達成するが、説明性に欠け、再トレーニングなしでは見えないグラフに適用できない。
近年,グラフ推論に大規模言語モデル (LLM) を用いた研究が始まっているが,そのほとんどは静的グラフや小さな合成TGに制約されており,LLMが生成する推論トレースの品質評価が欠如している。
本稿では,LLMを微調整し,実世界のTG上で説明可能なリンク予測を行う強化学習フレームワークReaL-TGを提案する。
ReaL-TGは結果に基づく報酬を使用して、グラフ構造からの推論戦略を自己発見し、予測を直接正当化する説明を生成する。
LLM生成した推論トレースの評価を可能にするために,評価指標とLLM-as-a-Judgeシステムを組み合わせた新しい評価プロトコルを提案し,推論の品質と幻覚の影響の両方を評価する。
本フレームワーク下でのQwen3-4Bの微調整により得られたReaL-TG-4Bを用いた実験により,GPT-5 miniを含むより大きなフロンティアLLMよりも高い性能を示し,LLM判定と人的評価の両面から高品質な説明が得られた。
関連論文リスト
- Graph-R1: Incentivizing the Zero-Shot Graph Learning Capability in LLMs via Explicit Reasoning [7.1931434571877375]
グラフニューラルネットワーク(GNN)は固定ラベル空間によって制限されるが、Large Language Models(LLM)は構造的帰納バイアスを欠いている。
近年のLarge Reasoning Models (LRMs) の進歩は、明示的な長い連鎖推論を通じてゼロショットの代替手段を提供する。
本稿では,LRMによるテキスト推論問題として,ノード分類,リンク予測,グラフ分類などのグラフタスクを再構成するGNNフリーアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-24T14:49:02Z) - Weak-to-Strong GraphRAG: Aligning Weak Retrievers with Large Language Models for Graph-based Retrieval Augmented Generation [29.492846663357565]
グラフベースの検索拡張生成(RAG)により、大規模な言語モデル(LLM)が幻覚を緩和できる。
本稿では、Refined Graph-based RAG (ReG)を導入し、弱いレトリバーをグラフベースRAGのLLMに整列させる。
ReGはLSMフィードバックを取り入れて、刺激的な信号を取り除き、監視の質を向上させる。
論文 参考訳(メタデータ) (2025-06-26T17:40:23Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Are Large Language Models Good Temporal Graph Learners? [10.964357009640105]
大規模言語モデル(LLM)用に設計された新しい時間グラフ学習フレームワークであるTGTalkerを紹介する。
TGTalkerは、時間グラフの相対バイアスを利用して関連する構造情報を抽出し、LLMの自然言語に変換し、時間近傍を予測のための追加情報として活用する。
5つの実世界のネットワークで、TGTalkerは最先端の時間グラフ手法と競合する。
論文 参考訳(メタデータ) (2025-06-03T19:34:24Z) - G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning [58.73279333365234]
合成グラフ理論タスクにおける強化学習(RL)はグラフ推論能力を著しく拡張することができる。
RL on ErdosでG1はグラフ推論の大幅な改善を実現し、微調整された3BモデルはQwen2.5-72B-Instruct(24倍)よりも優れています。
我々の研究は、グラフ理論上のRLでLLMを微調整することで、強力なグラフ推論器を構築するための効率的でスケーラブルな経路を提供する。
論文 参考訳(メタデータ) (2025-05-24T04:33:41Z) - Compile Scene Graphs with Reinforcement Learning [69.36723767339001]
次世代予測は大規模言語モデル(LLM)の訓練の基本原理である
本稿では,マルチモーダルLLM(M-LLM)であるR1-SGGを紹介する。
私たちは、Hard Recall、Hard Recall+Relax、Soft Recallの3つのリコールベースのバリエーションを含む、グラフ中心の報酬セットを設計します。
論文 参考訳(メタデータ) (2025-04-18T10:46:22Z) - Integrate Temporal Graph Learning into LLM-based Temporal Knowledge Graph Model [48.15492235240126]
時間的知識グラフ予測は、歴史における観測された事象に基づいて将来の事象を予測することを目的としている。
既存の手法では、検索した歴史的事実や静的グラフ表現をLarge Language Models (LLMs)に統合している。
LLMに基づく時間知識グラフモデルに時間グラフ学習を統合するための新しいフレームワークTGL-LLMを提案する。
論文 参考訳(メタデータ) (2025-01-21T06:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。