論文の概要: Spectral Heterogeneous Graph Convolutions via Positive Noncommutative Polynomials
- arxiv url: http://arxiv.org/abs/2305.19872v2
- Date: Sun, 5 May 2024 08:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 01:26:19.612881
- Title: Spectral Heterogeneous Graph Convolutions via Positive Noncommutative Polynomials
- Title(参考訳): 正の非可換多項式によるスペクトル不均一グラフ畳み込み
- Authors: Mingguo He, Zhewei Wei, Shikun Feng, Zhengjie Huang, Weibin Li, Yu Sun, Dianhai Yu,
- Abstract要約: 正のスペクトル不均一グラフ畳み込みネットワーク(PSHGCN)を提案する。
PSHGCNは、有効なヘテロジニアスグラフフィルタを学習するための、単純かつ効果的な方法を提供する。
PSHGCNは目覚ましいスケーラビリティを示し、数百万のノードとエッジからなる大規模な実世界のグラフを効率的に処理する。
- 参考スコア(独自算出の注目度): 34.74726720818622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous Graph Neural Networks (HGNNs) have gained significant popularity in various heterogeneous graph learning tasks. However, most existing HGNNs rely on spatial domain-based methods to aggregate information, i.e., manually selected meta-paths or some heuristic modules, lacking theoretical guarantees. Furthermore, these methods cannot learn arbitrary valid heterogeneous graph filters within the spectral domain, which have limited expressiveness. To tackle these issues, we present a positive spectral heterogeneous graph convolution via positive noncommutative polynomials. Then, using this convolution, we propose PSHGCN, a novel Positive Spectral Heterogeneous Graph Convolutional Network. PSHGCN offers a simple yet effective method for learning valid heterogeneous graph filters. Moreover, we demonstrate the rationale of PSHGCN in the graph optimization framework. We conducted an extensive experimental study to show that PSHGCN can learn diverse heterogeneous graph filters and outperform all baselines on open benchmarks. Notably, PSHGCN exhibits remarkable scalability, efficiently handling large real-world graphs comprising millions of nodes and edges. Our codes are available at https://github.com/ivam-he/PSHGCN.
- Abstract(参考訳): 不均一グラフニューラルネットワーク(HGNN)は、様々な異種グラフ学習タスクで大きな人気を集めている。
しかし、既存のHGNNの多くは、情報収集のための空間的ドメインベースの手法、すなわち、手動で選択したメタパスやヒューリスティックモジュールに依存しており、理論的保証がない。
さらに、これらの手法はスペクトル領域内の任意の有効不均一グラフフィルタを学習することができず、表現性に制限がある。
これらの問題に対処するために、正の非可換多項式による正のスペクトル異質グラフ畳み込みを提案する。
そして、この畳み込みを用いて、新規な正スペクトル不均一グラフ畳み込みネットワークであるPSHGCNを提案する。
PSHGCNは、有効なヘテロジニアスグラフフィルタを学習するための、単純かつ効果的な方法を提供する。
さらに,グラフ最適化フレームワークにおけるPSHGCNの理論的根拠を示す。
我々は、PSHGCNが多様な異種グラフフィルタを学習し、オープンベンチマークで全てのベースラインを上回り得ることを示すために、広範な実験を行った。
特にPSHGCNは、数百万のノードとエッジからなる大規模な実世界のグラフを効率的に処理する、優れたスケーラビリティを示している。
私たちのコードはhttps://github.com/ivam-he/PSHGCN.comで公開されています。
関連論文リスト
- How Universal Polynomial Bases Enhance Spectral Graph Neural Networks: Heterophily, Over-smoothing, and Over-squashing [24.857304431611464]
スペクトルグラフネットワーク(GNN)はヘテロフィリーグラフの出現率を高めている。
禁止計算を回避するため,多くのフィルタが提案されている。
所望ベクトルのスペクトル特性とヘテロフィリー次数の相関をデミステレーションする。
我々は、グラフのヘテロフィリー次数を反映する基底を相互に形成する、新しい適応的ヘテロフィリー基底を開発する。
論文 参考訳(メタデータ) (2024-05-21T03:28:45Z) - GPatcher: A Simple and Adaptive MLP Model for Alleviating Graph
Heterophily [15.93465948768545]
グラフニューラルネットワーク(GNN)フィルタにおけるグラフヘテロフィリーの影響を解明する。
我々は,パッチ・ミクサーアーキテクチャを利用したGPatcherというシンプルで強力なGNNを提案する。
本モデルでは, ノード分類において, 人気ホモフィリーGNNや最先端ヘテロフィリーGNNと比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-25T20:57:35Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - Graph Contrastive Learning under Heterophily via Graph Filters [51.46061703680498]
グラフコントラスト学習(CL)法は,GNNエンコーダを用いて得られる拡張ノード表現の類似性を最大化することにより,ノード表現を自己指導的に学習する。
本研究では,ヘテロフィリー下でのグラフ表現学習に有効なグラフCL法であるHLCLを提案する。
我々の広範な実験により、HLCLはヘテロフィリーのベンチマークデータセットや大規模実世界のグラフで最先端のグラフCL法を最大7%上回り、ヘテロフィリーのデータセットでグラフ教師あり学習法を最大10%上回ります。
論文 参考訳(メタデータ) (2023-03-11T08:32:39Z) - Specformer: Spectral Graph Neural Networks Meet Transformers [51.644312964537356]
スペクトルグラフニューラルネットワーク(GNN)は、スペクトル領域グラフ畳み込みを通じてグラフ表現を学習する。
本稿では、全ての固有値の集合を効果的に符号化し、スペクトル領域で自己アテンションを行うSpecformerを紹介する。
複数のSpecformerレイヤを積み重ねることで、強力なスペクトルGNNを構築することができる。
論文 参考訳(メタデータ) (2023-03-02T07:36:23Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Improving Spectral Graph Convolution for Learning Graph-level
Representation [27.76697047602983]
グラフ全体の表現を学習するためには,ノード間の基本的な関係を特徴付けるため,位相的距離が必要と考えられる。
グラフフィルタの制限を取り除くことで、新たなアーキテクチャによってグラフ表現の学習のパフォーマンスが大幅に向上する。
これは、よく知られたスペクトル/ローパスフィルタと比較して、入力信号に対するスペクトルの影響を定量的に測定する理解として機能する。
論文 参考訳(メタデータ) (2021-12-14T04:50:46Z) - Pointspectrum: Equivariance Meets Laplacian Filtering for Graph
Representation Learning [3.7875603451557063]
グラフ表現学習(GRL)は、現代のグラフデータマイニングおよび学習タスクに欠かせないものとなっている。
グラフニューラルネットワーク(GNN)は最先端のGRLアーキテクチャで使用されているが、過度なスムース化に悩まされていることが示されている。
本稿では,グラフの構造を考慮に入れたスペクトル法であるPointSpectrumを提案する。
論文 参考訳(メタデータ) (2021-09-06T10:59:11Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Graphon Pooling in Graph Neural Networks [169.09536309161314]
グラフニューラルネットワーク(GNN)は、グラフによってモデル化された不規則構造上の信号の処理を含む様々なアプリケーションで効果的に使用されている。
本稿では,グラフのスペクトル特性を保存したグラフオンを用いて,GNNのプールとサンプリングを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T21:04:20Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。