論文の概要: Bundle Neural Networks for message diffusion on graphs
- arxiv url: http://arxiv.org/abs/2405.15540v1
- Date: Fri, 24 May 2024 13:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 13:59:53.577036
- Title: Bundle Neural Networks for message diffusion on graphs
- Title(参考訳): グラフ上のメッセージ拡散のためのバンドルニューラルネットワーク
- Authors: Jacob Bamberger, Federico Barbero, Xiaowen Dong, Michael Bronstein,
- Abstract要約: 結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
- 参考スコア(独自算出の注目度): 10.018379001231356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dominant paradigm for learning on graph-structured data is message passing. Despite being a strong inductive bias, the local message passing mechanism suffers from pathological issues such as over-smoothing, over-squashing, and limited node-level expressivity. To address these limitations we propose Bundle Neural Networks (BuNN), a new type of GNN that operates via message diffusion over flat vector bundles - structures analogous to connections on Riemannian manifolds that augment the graph by assigning to each node a vector space and an orthogonal map. A BuNN layer evolves the features according to a diffusion-type partial differential equation. When discretized, BuNNs are a special case of Sheaf Neural Networks (SNNs), a recently proposed MPNN capable of mitigating over-smoothing. The continuous nature of message diffusion enables BuNNs to operate on larger scales of the graph and, therefore, to mitigate over-squashing. Finally, we prove that BuNN can approximate any feature transformation over nodes on any (potentially infinite) family of graphs given injective positional encodings, resulting in universal node-level expressivity. We support our theory via synthetic experiments and showcase the strong empirical performance of BuNNs over a range of real-world tasks, achieving state-of-the-art results on several standard benchmarks in transductive and inductive settings.
- Abstract(参考訳): グラフ構造化データについて学ぶための主要なパラダイムは、メッセージパッシングである。
強い帰納バイアスにもかかわらず、局所的なメッセージパッシング機構は、過剰な平滑化、過剰なスキャッシング、限られたノードレベルの表現性などの病理学的問題に悩まされる。
これらの制限に対処するため、我々は、フラットなベクトル束上のメッセージ拡散を介して動作する新しいタイプのGNNである Bundle Neural Networks (BuNN)を提案する。
BuNN層は拡散型偏微分方程式に従って特徴を進化させる。
離散化されると、BuNNは、オーバースムーシングを緩和できる最近提案されたMPNNであるSheaf Neural Networks(SNN)の特殊なケースである。
メッセージ拡散の連続的な性質により、BuNNはグラフのより大きなスケールで操作でき、したがってオーバー・スカッシングを軽減できる。
最後に、BuNNが任意の(潜在的に無限な)グラフの族上の任意の特徴変換を近似できることを示す。
提案手法は, 実世界のタスクに対するBuNNの強い経験的性能を実証し, トランスダクティブおよびインダクティブな設定において, いくつかの標準ベンチマークで最新の結果が得られることを示す。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
グラフニューラルネットワーク(GNN)は、グラフ畳み込みの連続的な応用により、隣接ノードからの情報を結合する。
ノードレベルとグラフレベルの両方のタスクにおけるGNNの一般化ギャップについて検討する。
トレーニンググラフのノード数によって一般化ギャップが減少することを示す。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に動き、ノード特徴は大きな深さでも情報的であり続ける。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - Robust Node Representation Learning via Graph Variational Diffusion
Networks [7.335425547621226]
近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
論文 参考訳(メタデータ) (2023-12-18T03:18:53Z) - Re-Think and Re-Design Graph Neural Networks in Spaces of Continuous
Graph Diffusion Functionals [7.6435511285856865]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークや生体システムのようなドメインで広く使われている。
GNNのローカリティ仮定は、グラフ内の長距離依存関係とグローバルパターンをキャプチャする能力を損なう。
本稿では,ブラヒクロニスト問題から着想を得た変分解析に基づく新しい帰納バイアスを提案する。
論文 参考訳(メタデータ) (2023-07-01T04:44:43Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Superiority of GNN over NN in generalizing bandlimited functions [6.3151583550712065]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Understanding the Message Passing in Graph Neural Networks via Power
Iteration Clustering [4.426835206454162]
グラフニューラルネットワーク(GNN)におけるメッセージパッシングのメカニズムについて検討する。
本稿では,1つのアグリゲータのみを用いて反復的に学習するサブスペース・パワー・イテレーション・クラスタリング(SPIC)モデルを提案する。
我々の発見は、ニューラルネットワークの理論的理解の境界を押し広げた。
論文 参考訳(メタデータ) (2020-05-30T01:44:34Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。