論文の概要: Can Large Language Models Improve Spectral Graph Neural Networks?
- arxiv url: http://arxiv.org/abs/2506.14220v1
- Date: Tue, 17 Jun 2025 06:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.355757
- Title: Can Large Language Models Improve Spectral Graph Neural Networks?
- Title(参考訳): 大規模言語モデルはスペクトルグラフニューラルネットワークを改善できるか?
- Authors: Kangkang Lu, Yanhua Yu, Zhiyong Huang, Tat-Seng Chua,
- Abstract要約: スペクトルグラフネットワーク(SGNN)は、任意のフィルタを近似できるため、大きな注目を集めている。
それらは一般的に、適切なフィルタを適応的に学習するために、下流タスクからの監督に依存します。
大規模言語モデル(LLM)は、GNNドメイン内での可能性を探究することへの関心が高まっている。
- 参考スコア(独自算出の注目度): 48.135717446964385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral Graph Neural Networks (SGNNs) have attracted significant attention due to their ability to approximate arbitrary filters. They typically rely on supervision from downstream tasks to adaptively learn appropriate filters. However, under label-scarce conditions, SGNNs may learn suboptimal filters, leading to degraded performance. Meanwhile, the remarkable success of Large Language Models (LLMs) has inspired growing interest in exploring their potential within the GNN domain. This naturally raises an important question: \textit{Can LLMs help overcome the limitations of SGNNs and enhance their performance?} In this paper, we propose a novel approach that leverages LLMs to estimate the homophily of a given graph. The estimated homophily is then used to adaptively guide the design of polynomial spectral filters, thereby improving the expressiveness and adaptability of SGNNs across diverse graph structures. Specifically, we introduce a lightweight pipeline in which the LLM generates homophily-aware priors, which are injected into the filter coefficients to better align with the underlying graph topology. Extensive experiments on benchmark datasets demonstrate that our LLM-driven SGNN framework consistently outperforms existing baselines under both homophilic and heterophilic settings, with minimal computational and monetary overhead.
- Abstract(参考訳): 任意のフィルタを近似できるため、スペクトルグラフニューラルネットワーク(SGNN)が注目されている。
それらは一般的に、適切なフィルタを適応的に学習するために、下流タスクからの監督に依存します。
しかし、ラベルスカース条件下では、SGNNは最適以下のフィルタを学習し、性能が劣化する可能性がある。
一方、LLM(Large Language Models)の驚くべき成功は、GNNドメイン内での可能性を探究することへの関心が高まっている。
textit{Can LLMsは、SGNNの制限を克服し、パフォーマンスを向上させるのに役立ちますか?
本論文では, LLMを用いて与えられたグラフのホモフィリィを推定する手法を提案する。
次に、推定ホモフィリーを用いて多項式スペクトルフィルタの設計を適応的に導くことにより、様々なグラフ構造におけるSGNNの表現性と適応性を向上させる。
具体的には,LLMがフィルタ係数に注入し,基礎となるグラフトポロジとの整合性を向上する,ホモフィア・アウェア・プレファレンスを生成する軽量パイプラインを提案する。
ベンチマークデータセットの大規模な実験により、LLM駆動のSGNNフレームワークは、同好的および異好的両方の設定下で、計算的および金銭的オーバーヘッドを最小限に抑えながら、既存のベースラインを一貫して上回ります。
関連論文リスト
- Exploring the Potential of Large Language Models for Heterophilic Graphs [38.79574338268997]
大規模言語モデル(LLM)を用いた異種グラフモデリングのための2段階フレームワークを提案する。
第1段階では、LLMを微調整して、ノードのテキスト内容に基づいて、同好および異好のエッジをより正確に識別する。
第2段階では,ノードの特徴,構造,ヘテロ親和性,ホモ親和性といった特徴に基づいて,異なるエッジタイプに対するGNNのメッセージ伝搬を適応的に管理する。
論文 参考訳(メタデータ) (2024-08-26T09:29:56Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Label-free Node Classification on Graphs with Large Language Models
(LLMS) [46.937442239949256]
本研究では,Large Language Models パイプライン LLM-GNN を用いたグラフ上でのラベルなしノード分類を導入する。
制限を緩和しながら、GNNとLLMの長所を反復する。
特に、LLM-GNNは1ドル未満の大規模データセットで74.9%の精度を達成できる。
論文 参考訳(メタデータ) (2023-10-07T03:14:11Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。