論文の概要: Learning Laplacian Eigenvectors: a Pre-training Method for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2509.02803v1
- Date: Tue, 02 Sep 2025 20:07:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.328796
- Title: Learning Laplacian Eigenvectors: a Pre-training Method for Graph Neural Networks
- Title(参考訳): ラプラシア固有ベクトルの学習--グラフニューラルネットワークの事前学習法
- Authors: Howard Dai, Nyambura Njenga, Benjamin Whitsett, Catherine Ma, Darwin Deng, Sara de Ángel, Alexandre Van Tassel, Siddharth Viswanath, Ryan Pellico, Ian Adelstein, Smita Krishnaswamy,
- Abstract要約: 本稿では,ラプラシアン固有ベクトルを誘導学習することで,グラフニューラルネットワーク(GNN)を事前学習するための新しいフレームワークを提案する。
グラフラプラシア行列の低周波固有ベクトルはグローバル情報を符号化するので、これらの固有ベクトルを予測するための事前学習GNNは、各グラフ上の大規模構造パターンを自然に学習することをネットワークに促す。
- 参考スコア(独自算出の注目度): 33.81735952511192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel framework for pre-training Graph Neural Networks (GNNs) by inductively learning Laplacian eigenvectors. Traditional Message Passing Neural Networks (MPNNs) often struggle to capture global and regional graph structure due to over-smoothing risk as network depth increases. Because the low-frequency eigenvectors of the graph Laplacian matrix encode global information, pre-training GNNs to predict these eigenvectors encourages the network to naturally learn large-scale structural patterns over each graph. Empirically, we show that models pre-trained via our framework outperform baseline models on a variety of graph structure-based tasks. While most existing pre-training methods focus on domain-specific tasks like node or edge feature reconstruction, our self-supervised pre-training framework is structure-based and highly flexible. Eigenvector-learning can be applied to all graph-based datasets, and can be used with synthetic features when task-specific data is sparse.
- Abstract(参考訳): 本稿では,ラプラシアン固有ベクトルを誘導学習することで,グラフニューラルネットワーク(GNN)を事前学習するための新しいフレームワークを提案する。
従来のメッセージパッシングニューラルネットワーク(MPNN)は、ネットワークの深さが増加するにつれて、過度にスムースなリスクのために、グローバルグラフと地域グラフの構造を捉えるのに苦労することが多い。
グラフラプラシア行列の低周波固有ベクトルはグローバル情報を符号化するので、これらの固有ベクトルを予測するための事前学習GNNは、各グラフ上の大規模構造パターンを自然に学習することをネットワークに促す。
経験的に、フレームワークを介して事前訓練されたモデルは、さまざまなグラフ構造に基づくタスクにおいて、ベースラインモデルより優れていることを示す。
既存の事前トレーニング手法のほとんどは、ノードやエッジ機能再構築のようなドメイン固有のタスクに重点を置いていますが、当社の自己教師型事前トレーニングフレームワークは構造ベースで、非常に柔軟です。
固有ベクトル学習は、すべてのグラフベースのデータセットに適用でき、タスク固有のデータがスパースである場合に合成機能で使用することができる。
関連論文リスト
- Prefetching Cache Optimization Using Graph Neural Networks: A Modular Framework and Conceptual Analysis [0.0]
本稿では、グラフ構造化データ内のアクセスパターンをモデル化し、予測するためにグラフニューラルネットワーク(GNN)を利用するモジュラーフレームワークを提案する。
複雑な依存関係を学習することで、GNNベースのアプローチが従来の手法より優れていることを示す、詳細な概念分析を提供する。
論文 参考訳(メタデータ) (2025-10-23T10:35:35Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Interpretable A-posteriori Error Indication for Graph Neural Network Surrogate Models [0.0]
本稿では,グラフニューラルネットワーク(GNN)の解釈可能性向上手法を提案する。
最終結果は、予測タスクに本質的に関連付けられたサブグラフに対応する物理空間内の領域を分離する解釈可能なGNNモデルである。
解釈可能なGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
論文 参考訳(メタデータ) (2023-11-13T18:37:07Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Self-supervised Learning and Graph Classification under Heterophily [4.358149865548289]
我々は,Metric(PGM)に基づく,事前学習型グラフニューラルネットワーク(GNN)のための新しい自己教師型戦略を提案する。
我々の戦略は、分子特性予測とタンパク質機能予測のための最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-14T12:32:38Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Spatio-Temporal Latent Graph Structure Learning for Traffic Forecasting [6.428566223253948]
S-Temporal Latent Graph Structure Learning Network (ST-LGSL) を提案する。
このモデルは多層パーセプトロンとK-Nearest Neighborに基づくグラフを用いて、データ全体から潜在グラフトポロジ情報を学習する。
kNNの接地確率行列に基づく依存関係-kNNと類似度メートル法により、ST-LGSLは地理的およびノード類似度に重点を置くトップを集約する。
論文 参考訳(メタデータ) (2022-02-25T10:02:49Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - The World as a Graph: Improving El Ni\~no Forecasts with Graph Neural
Networks [0.00916150060695978]
季節予測へのグラフニューラルネットワークの最初の応用を提案する。
当社のモデルであるGraphinoは、最先端のディープラーニングベースのモデルで最大6ヶ月の予測を上回ります。
論文 参考訳(メタデータ) (2021-04-11T19:55:55Z) - Representation Learning of Reconstructed Graphs Using Random Walk Graph
Convolutional Network [12.008472517000651]
グラフのノード特異的なメソスコピック構造を得るためにランダムウォークを利用する新しいフレームワークであるwGCNを提案する。
高次局所構造情報を組み合わせることで、ネットワークの可能性をより効率的に探究できると信じている。
論文 参考訳(メタデータ) (2021-01-02T10:31:14Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。