論文の概要: Scale Invariance of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2411.19392v2
- Date: Tue, 03 Dec 2024 22:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 11:47:04.453977
- Title: Scale Invariance of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのスケール不変性
- Authors: Qin Jiang, Chengjia Wang, Michael Lones, Wei Pang,
- Abstract要約: グラフニューラルネットワーク(GNN)における2つの基本的な課題に対処する。
本研究では,4つの同好性および2つの異好性ベンチマークデータセットにまたがって,最先端のパフォーマンスを実現する統一ネットワークアーキテクチャであるScaleNetを提案する。
ダイグラフに対する別の一般的なGNNアプローチとして、Hermitian Laplacian法とGraphSAGEと入射正規化の等価性を示す。
- 参考スコア(独自算出の注目度): 4.002604752467421
- License:
- Abstract: We address two fundamental challenges in Graph Neural Networks (GNNs): (1) the lack of theoretical support for invariance learning, a critical property in image processing, and (2) the absence of a unified model capable of excelling on both homophilic and heterophilic graph datasets. To tackle these issues, we establish and prove scale invariance in graphs, extending this key property to graph learning, and validate it through experiments on real-world datasets. Leveraging directed multi-scaled graphs and an adaptive self-loop strategy, we propose ScaleNet, a unified network architecture that achieves state-of-the-art performance across four homophilic and two heterophilic benchmark datasets. Furthermore, we show that through graph transformation based on scale invariance, uniform weights can replace computationally expensive edge weights in digraph inception networks while maintaining or improving performance. For another popular GNN approach to digraphs, we demonstrate the equivalence between Hermitian Laplacian methods and GraphSAGE with incidence normalization. ScaleNet bridges the gap between homophilic and heterophilic graph learning, offering both theoretical insights into scale invariance and practical advancements in unified graph learning. Our implementation is publicly available at https://github.com/Qin87/ScaleNet/tree/Aug23.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)における2つの基本的な課題に対処する:(1) 不変学習の理論的サポートの欠如、画像処理における重要な特性、(2) ホモ親和性グラフとヘテロ親和性グラフの両方で優れた統一モデルがないこと。
これらの問題に対処するために、グラフのスケール不変性を確立し、証明し、このキープロパティをグラフ学習に拡張し、実世界のデータセットの実験を通じて検証する。
有向なマルチスケールグラフと適応的な自己ループ戦略を活用して,4つの同好性および2つの異好性ベンチマークデータセットの最先端性能を実現する統一ネットワークアーキテクチャであるScaleNetを提案する。
さらに, スケール不変性に基づくグラフ変換により, 計算コストのかかるエッジウェイトを, 性能を維持したり改善したりしながら置き換えることができることを示す。
ダイグラフに対する別の一般的なGNNアプローチとして、Hermitian Laplacian法とGraphSAGEと入射正規化の等価性を示す。
ScaleNetは、同好性グラフ学習と異好性グラフ学習のギャップを埋め、スケール不変性の理論的な洞察と、統一グラフ学習における実践的な進歩の両方を提供する。
私たちの実装はhttps://github.com/Qin87/ScaleNet/tree/Aug23.comで公開されています。
関連論文リスト
- ScaleNet: Scale Invariance Learning in Directed Graphs [4.235697905699222]
グラフニューラルネットワーク(GNN)を用いたノード分類では、実際には分類される中心ノードのエゴグラフである。
複数方向エッジの順序列である非方向のシングルエッジをスケールドエッジに置き換える「スケールドエゴグラフ」の概念を提案する。
スケール不変性に基づくグラフ学習は、よりシンプルで、より速く、より正確に、ランダムウォークから派生した開始モデルより優れている。
論文 参考訳(メタデータ) (2024-11-13T16:42:59Z) - Simplified PCNet with Robustness [5.127360270463981]
以前の研究である Possion-Charlier Network (PCNet) citeli2024pc では、グラフ表現をヘテロフィリからホモフィリに学習することができる。
我々はPCNetをシンプルにし、その堅牢性を高める。
論文 参考訳(メタデータ) (2024-03-06T12:57:48Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Permutation Equivariant Graph Framelets for Heterophilous Graph Learning [6.679929638714752]
本研究では,Haar型グラフフレームレットの構築により,マルチスケール抽出を実現する手法を開発した。
ヘテロ親和性グラフの特定のデータセット上で,我々のモデルが最高の性能を達成できることが示される。
論文 参考訳(メタデータ) (2023-06-07T09:05:56Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Make Heterophily Graphs Better Fit GNN: A Graph Rewiring Approach [43.41163711340362]
本稿では, ヘテロフィリーグラフリワイアリング(Deep Heterophily Graph Rewiring, DHGR)という手法を提案する。
我々の知る限りでは、ヘテロフィリーグラフに対するグラフ再構成を研究する最初の研究である。
論文 参考訳(メタデータ) (2022-09-17T06:55:21Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。