論文の概要: Glance for Context: Learning When to Leverage LLMs for Node-Aware GNN-LLM Fusion
- arxiv url: http://arxiv.org/abs/2510.10849v1
- Date: Sun, 12 Oct 2025 23:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.129946
- Title: Glance for Context: Learning When to Leverage LLMs for Node-Aware GNN-LLM Fusion
- Title(参考訳): Glance for Context: Node-Aware GNN-LLM FusionのためのLLMをいつ活用するかを学ぶ
- Authors: Donald Loveland, Yao-An Yang, Danai Koutra,
- Abstract要約: 我々は,GNNの予測を洗練させるためにLLMを起動するフレームワークであるGLANCEを提案する。
GLANCEがノードサブグループ間で最高のパフォーマンスバランスを達成することを示す。
本研究は,適応型ノード認識型GNN-LLMアーキテクチャの価値を強調した。
- 参考スコア(独自算出の注目度): 11.093748269263486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning on text-attributed graphs has motivated the use of Large Language Models (LLMs) for graph learning. However, most fusion strategies are applied uniformly across all nodes and attain only small overall performance gains. We argue this result stems from aggregate metrics that obscure when LLMs provide benefit, inhibiting actionable signals for new strategies. In this work, we reframe LLM-GNN fusion around nodes where GNNs typically falter. We first show that performance can significantly differ between GNNs and LLMs, with each excelling on distinct structural patterns, such as local homophily. To leverage this finding, we propose GLANCE (GNN with LLM Assistance for Neighbor- and Context-aware Embeddings), a framework that invokes an LLM to refine a GNN's prediction. GLANCE employs a lightweight router that, given inexpensive per-node signals, decides whether to query the LLM. Since the LLM calls are non-differentiable, the router is trained with an advantage-based objective that compares the utility of querying the LLM against relying solely on the GNN. Across multiple benchmarks, GLANCE achieves the best performance balance across node subgroups, achieving significant gains on heterophilous nodes (up to $+13\%$) while simultaneously achieving top overall performance. Our findings highlight the value of adaptive, node-aware GNN-LLM architectures, where selectively invoking the LLM enables scalable deployment on large graphs without incurring high computational costs.
- Abstract(参考訳): テキスト分散グラフでの学習は、グラフ学習にLarge Language Models(LLM)の使用を動機付けている。
しかし、ほとんどの融合戦略は全てのノードに一様に適用され、全体のパフォーマンスはわずかである。
この結果は、LCMが利益をもたらすときに不明瞭なメトリクスを集約し、新しい戦略のための実用的なシグナルを阻害することに由来すると我々は主張する。
この作業では、通常GNNがフェールするノードを中心にLLM-GNN融合を再構成する。
まず,GNNとLLMとでは,局所的ホモフィリーなどの異なる構造パターンに優れた性能を示す。
そこで本研究では,GLANCE (GNN with LLM Assistance for Neighbor- and Context-aware Embeddings)を提案する。
GLANCEは軽量ルータを採用し、ノードごとの安価な信号が与えられた場合、LSMに問い合わせるかどうかを判断する。
LLM呼び出しは微分不可能であるため、ルータはGNNのみに依存しないLLMクエリの有用性を比較する利点ベースの目的で訓練される。
複数のベンチマークで、GLANCEはノードサブグループ間で最高のパフォーマンスバランスを達成し、ヘテロフレンドリーなノード(最大$+13\%$)において、同時に最高のパフォーマンスを達成する。
本研究は,LLMを選択的に呼び出すことで,高い計算コストを伴わずに大規模グラフ上に拡張可能な適応型ノード対応GNN-LLMアーキテクチャの価値を強調した。
関連論文リスト
- GL-Fusion: Rethinking the Combination of Graph Neural Network and Large Language model [63.774726052837266]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を深く統合した新しいアーキテクチャを導入する。
本稿では,(1)GNNのメッセージパッシング機能を直接LLMのトランスフォーマー層に組み込む構造対応トランスフォーマー,(2)グラフノードとエッジから圧縮されていない全テキストを処理するグラフテキストクロスアテンション,(3)GNN-LLMツインプレクタ,(3)GNN-LLMツインプレクタ,3)GNNのスケーラブルなワンパス予測とともに,LLMの柔軟な自己回帰生成を実現する。
論文 参考訳(メタデータ) (2024-12-08T05:49:58Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Label-free Node Classification on Graphs with Large Language Models
(LLMS) [46.937442239949256]
本研究では,Large Language Models パイプライン LLM-GNN を用いたグラフ上でのラベルなしノード分類を導入する。
制限を緩和しながら、GNNとLLMの長所を反復する。
特に、LLM-GNNは1ドル未満の大規模データセットで74.9%の精度を達成できる。
論文 参考訳(メタデータ) (2023-10-07T03:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。