論文の概要: Can Large Language Models Improve Spectral Graph Neural Networks?
- arxiv url: http://arxiv.org/abs/2506.14220v1
- Date: Tue, 17 Jun 2025 06:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.355757
- Title: Can Large Language Models Improve Spectral Graph Neural Networks?
- Title(参考訳): 大規模言語モデルはスペクトルグラフニューラルネットワークを改善できるか?
- Authors: Kangkang Lu, Yanhua Yu, Zhiyong Huang, Tat-Seng Chua,
- Abstract要約: スペクトルグラフネットワーク(SGNN)は、任意のフィルタを近似できるため、大きな注目を集めている。
それらは一般的に、適切なフィルタを適応的に学習するために、下流タスクからの監督に依存します。
大規模言語モデル(LLM)は、GNNドメイン内での可能性を探究することへの関心が高まっている。
- 参考スコア(独自算出の注目度): 48.135717446964385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral Graph Neural Networks (SGNNs) have attracted significant attention due to their ability to approximate arbitrary filters. They typically rely on supervision from downstream tasks to adaptively learn appropriate filters. However, under label-scarce conditions, SGNNs may learn suboptimal filters, leading to degraded performance. Meanwhile, the remarkable success of Large Language Models (LLMs) has inspired growing interest in exploring their potential within the GNN domain. This naturally raises an important question: \textit{Can LLMs help overcome the limitations of SGNNs and enhance their performance?} In this paper, we propose a novel approach that leverages LLMs to estimate the homophily of a given graph. The estimated homophily is then used to adaptively guide the design of polynomial spectral filters, thereby improving the expressiveness and adaptability of SGNNs across diverse graph structures. Specifically, we introduce a lightweight pipeline in which the LLM generates homophily-aware priors, which are injected into the filter coefficients to better align with the underlying graph topology. Extensive experiments on benchmark datasets demonstrate that our LLM-driven SGNN framework consistently outperforms existing baselines under both homophilic and heterophilic settings, with minimal computational and monetary overhead.
- Abstract(参考訳): 任意のフィルタを近似できるため、スペクトルグラフニューラルネットワーク(SGNN)が注目されている。
それらは一般的に、適切なフィルタを適応的に学習するために、下流タスクからの監督に依存します。
しかし、ラベルスカース条件下では、SGNNは最適以下のフィルタを学習し、性能が劣化する可能性がある。
一方、LLM(Large Language Models)の驚くべき成功は、GNNドメイン内での可能性を探究することへの関心が高まっている。
textit{Can LLMsは、SGNNの制限を克服し、パフォーマンスを向上させるのに役立ちますか?
本論文では, LLMを用いて与えられたグラフのホモフィリィを推定する手法を提案する。
次に、推定ホモフィリーを用いて多項式スペクトルフィルタの設計を適応的に導くことにより、様々なグラフ構造におけるSGNNの表現性と適応性を向上させる。
具体的には,LLMがフィルタ係数に注入し,基礎となるグラフトポロジとの整合性を向上する,ホモフィア・アウェア・プレファレンスを生成する軽量パイプラインを提案する。
ベンチマークデータセットの大規模な実験により、LLM駆動のSGNNフレームワークは、同好的および異好的両方の設定下で、計算的および金銭的オーバーヘッドを最小限に抑えながら、既存のベースラインを一貫して上回ります。
関連論文リスト
- Scalability Matters: Overcoming Challenges in InstructGLM with Similarity-Degree-Based Sampling [1.2805157669888096]
提案するSDM-InstructGLMは,GNNに依存することなく,拡張性と効率を向上する命令調整グラフ言語モデル(InstructGLM)フレームワークである。
本手法では,ノード間類似度と次数集中度に基づいてグラフ情報を選択的にサンプリングし,符号化する,類似度に基づくバイアス付きランダムウォーク機構を提案する。
本結果は,LLMのみのグラフ処理の実現可能性を示し,命令ベースの微調整によって最適化されたスケーラブルかつ解釈可能なグラフ言語モデル(GLM)を実現する。
論文 参考訳(メタデータ) (2025-05-02T06:08:21Z) - Large-Scale Spectral Graph Neural Networks via Laplacian Sparsification: Technical Report [21.288230563135055]
スペクトルグラフニューラルネットワーク(GNN)の伝搬パターンを近似する新しいグラフスペクトルスカラー化法を提案する。
提案手法では,入力ノード機能に線形レイヤを適用でき,エンドツーエンドのトレーニングや生の機能の処理が可能となる。
論文 参考訳(メタデータ) (2025-01-08T15:36:19Z) - LASE: Learned Adjacency Spectral Embeddings [7.612218105739107]
グラフ入力から結節隣接スペクトル埋め込み(ASE)を学習する。
LASEは解釈可能で、パラメータ効率が高く、未観測のエッジを持つ入力に対して堅牢である。
LASEレイヤは、Graph Convolutional Network (GCN)と完全に接続されたGraph Attention Network (GAT)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-23T17:35:19Z) - DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - Let's Ask GNN: Empowering Large Language Model for Graph In-Context Learning [28.660326096652437]
本稿では,逐次テキスト処理とグラフ構造化データのギャップを埋める新しいアプローチであるAskGNNを紹介する。
AskGNNはグラフニューラルネットワーク(GNN)を利用した構造強化レトリバーを使用して、グラフをまたいだラベル付きノードを選択する。
3つのタスクと7つのLLMにわたる実験は、グラフタスクのパフォーマンスにおいてAskGNNが優れていることを示す。
論文 参考訳(メタデータ) (2024-10-09T17:19:12Z) - Exploring the Potential of Large Language Models for Heterophilic Graphs [38.79574338268997]
大規模言語モデル(LLM)を用いた異種グラフモデリングのための2段階フレームワークを提案する。
第1段階では、LLMを微調整して、ノードのテキスト内容に基づいて、同好および異好のエッジをより正確に識別する。
第2段階では,ノードの特徴,構造,ヘテロ親和性,ホモ親和性といった特徴に基づいて,異なるエッジタイプに対するGNNのメッセージ伝搬を適応的に管理する。
論文 参考訳(メタデータ) (2024-08-26T09:29:56Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Label-free Node Classification on Graphs with Large Language Models
(LLMS) [46.937442239949256]
本研究では,Large Language Models パイプライン LLM-GNN を用いたグラフ上でのラベルなしノード分類を導入する。
制限を緩和しながら、GNNとLLMの長所を反復する。
特に、LLM-GNNは1ドル未満の大規模データセットで74.9%の精度を達成できる。
論文 参考訳(メタデータ) (2023-10-07T03:14:11Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。