論文の概要: Higher-order Graph Convolutional Network with Flower-Petals Laplacians
on Simplicial Complexes
- arxiv url: http://arxiv.org/abs/2309.12971v2
- Date: Thu, 18 Jan 2024 06:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 20:10:20.728057
- Title: Higher-order Graph Convolutional Network with Flower-Petals Laplacians
on Simplicial Complexes
- Title(参考訳): 単純錯体上のフラワーペタルラプラシアンを用いた高次グラフ畳み込みネットワーク
- Authors: Yiming Huang, Yujie Zeng, Qiang Wu, Linyuan L\"u
- Abstract要約: FPラプラシアンをsimplicial Complex(SC)に組み込んだ高次フラワー・ペタールス(FP)モデルを提案する。
また、FPラプラシアンを基盤とした高階グラフ畳み込みネットワーク(HiGCN)を導入し、様々な位相スケールで固有の特徴を識別する。
HiGCNは、様々なグラフタスクにおける最先端のパフォーマンスを達成し、グラフにおける高次相互作用を探索するためのスケーラブルで柔軟なソリューションを提供する。
- 参考スコア(独自算出の注目度): 5.838832985156104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent successes of vanilla Graph Neural Networks (GNNs) on
various tasks, their foundation on pairwise networks inherently limits their
capacity to discern latent higher-order interactions in complex systems. To
bridge this capability gap, we propose a novel approach exploiting the rich
mathematical theory of simplicial complexes (SCs) - a robust tool for modeling
higher-order interactions. Current SC-based GNNs are burdened by high
complexity and rigidity, and quantifying higher-order interaction strengths
remains challenging. Innovatively, we present a higher-order Flower-Petals (FP)
model, incorporating FP Laplacians into SCs. Further, we introduce a
Higher-order Graph Convolutional Network (HiGCN) grounded in FP Laplacians,
capable of discerning intrinsic features across varying topological scales. By
employing learnable graph filters, a parameter group within each FP Laplacian
domain, we can identify diverse patterns where the filters' weights serve as a
quantifiable measure of higher-order interaction strengths. The theoretical
underpinnings of HiGCN's advanced expressiveness are rigorously demonstrated.
Additionally, our empirical investigations reveal that the proposed model
accomplishes state-of-the-art performance on a range of graph tasks and
provides a scalable and flexible solution to explore higher-order interactions
in graphs. Codes and datasets are available at
https://github.com/Yiminghh/HiGCN.
- Abstract(参考訳): 様々なタスクにおけるバニラグラフニューラルネットワーク(gnns)の成功にもかかわらず、ペアワイズネットワークの基礎は、複雑なシステムにおける潜在高次相互作用を識別する能力を本質的に制限している。
この能力ギャップを埋めるために,高次相互作用をモデル化するための頑健なツールであるsimplicial Complex (SCs) のリッチな数学的理論を活用する新しい手法を提案する。
現在のSCベースのGNNは、複雑さと剛性に悩まされており、高次相互作用強度の定量化は依然として難しい。
本稿では,FPラプラシアンをSCに組み込んだ高次フラワー・ペタールス(FP)モデルを提案する。
さらに, fpラプラシアンに接地した高次グラフ畳み込みネットワーク (higcn) を導入することで, 様々な位相スケールで固有特徴を識別できる。
各fpラプラシアン領域内のパラメータ群である学習可能なグラフフィルタを用いることで、フィルタの重みが高次相互作用強度の定量化に寄与する多様なパターンを識別できる。
HiGCNの高度表現性の理論的基盤は厳密に示されている。
さらに実験により,提案モデルがグラフタスクにおける最先端のパフォーマンスを達成し,グラフ内の高次相互作用を探索するためのスケーラブルで柔軟なソリューションを提供することを明らかにした。
コードとデータセットはhttps://github.com/yiminghh/higcnで入手できる。
関連論文リスト
- Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Generalization of graph network inferences in higher-order graphical
models [5.33024001730262]
確率的グラフィカルモデルは、複雑な統計構造を記述する強力なツールを提供する。
辺化のような推論は 一般グラフでは難解です
我々は,多変数相互作用を含むグラフィカルモデル上での高速な近似推定を実現するために,Recurrent Factor Graph Neural Network (RF-GNN) を定義する。
論文 参考訳(メタデータ) (2021-07-12T20:51:27Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - Weisfeiler and Lehman Go Topological: Message Passing Simplicial
Networks [3.0017241250121383]
MPSN(Message Passing Simplicial Networks)を提案します。
MPSNはsimplicial Complex (SC)上でメッセージパッシングを行うモデルである
我々は、MPSNがGNNが失敗する挑戦的な強正則グラフを区別できることを示すことによって、理論的な主張を実証的に支持する。
論文 参考訳(メタデータ) (2021-03-04T18:35:24Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。