論文の概要: Stable and Transferable Hyper-Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.06513v1
- Date: Fri, 11 Nov 2022 23:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:01:22.638574
- Title: Stable and Transferable Hyper-Graph Neural Networks
- Title(参考訳): 安定かつ伝達可能なハイパーグラフニューラルネットワーク
- Authors: Mikhail Hayhoe, Hans Riess, Victor M. Preciado, and Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
- 参考スコア(独自算出の注目度): 95.07035704188984
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce an architecture for processing signals supported on hypergraphs
via graph neural networks (GNNs), which we call a Hyper-graph Expansion Neural
Network (HENN), and provide the first bounds on the stability and
transferability error of a hypergraph signal processing model. To do so, we
provide a framework for bounding the stability and transferability error of
GNNs across arbitrary graphs via spectral similarity. By bounding the
difference between two graph shift operators (GSOs) in the positive
semi-definite sense via their eigenvalue spectrum, we show that this error
depends only on the properties of the GNN and the magnitude of spectral
similarity of the GSOs. Moreover, we show that existing transferability results
that assume the graphs are small perturbations of one another, or that the
graphs are random and drawn from the same distribution or sampled from the same
graphon can be recovered using our approach. Thus, both GNNs and our HENNs
(trained using normalized Laplacians as graph shift operators) will be
increasingly stable and transferable as the graphs become larger. Experimental
results illustrate the importance of considering multiple graph representations
in HENN, and show its superior performance when transferability is desired.
- Abstract(参考訳): 我々は,ハイパーグラフ拡張ニューラルネットワーク (henn) と呼ぶグラフニューラルネットワーク (gnns) によるハイパーグラフ上で支援される信号を処理するためのアーキテクチャを導入し,ハイパーグラフ信号処理モデルの安定性と転送可能性に関する最初の境界を提供する。
そのため、スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差を境界付けるためのフレームワークを提供する。
正半定値な意味での2つのグラフシフト作用素(GSO)の差を固有値スペクトルによって有界にすることで、この誤差はGNNの特性とGSOのスペクトル類似度の大きさにのみ依存することを示す。
さらに,グラフが互いに小さな摂動であると仮定した既存の転送可能性結果や,同一分布からランダムに描画されたグラフや,同一のグラフからサンプリングされたグラフを,このアプローチで復元できることを示す。
したがって、GNNとHENN(正規化ラプラシアンをグラフシフト演算子として使用した)は、グラフが大きくなるにつれて安定し、転送可能である。
実験の結果,複数のグラフ表現を henn で検討することの重要性が示され,転送性が要求される場合,その優れた性能を示す。
関連論文リスト
- Higher-Order GNNs Meet Efficiency: Sparse Sobolev Graph Neural Networks [6.080095317098909]
グラフニューラルネットワーク(GNN)は,グラフ内のノード間の関係をモデル化する上で,非常に有望であることを示す。
これまでの研究では、主にグラフ内の高次隣人からの情報を活用しようと試みてきた。
我々は基本的な観察を行い、ラプラシア行列の正則とアダマールの力はスペクトルでも同様に振る舞う。
グラフ信号のスパースなソボレフノルムに基づく新しいグラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2024-11-07T09:53:11Z) - Graph neural networks and non-commuting operators [4.912318087940015]
我々は,グラフトン・タプルニューラルネットワークの極限理論を開発し,それを普遍的な伝達可能性定理の証明に利用する。
我々の理論的結果は、GNNのよく知られた移動可能性定理を、複数の同時グラフの場合にまで拡張する。
得られたモデルの安定性を確実に実施する訓練手順を導出する。
論文 参考訳(メタデータ) (2024-11-06T21:17:14Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Learning Stable Graph Neural Networks via Spectral Regularization [18.32587282139282]
グラフニューラルネットワーク(GNN)の安定性は、GNNがグラフ摂動にどう反応するかを特徴付け、ノイズの多いシナリオでアーキテクチャのパフォーマンスを保証する。
本稿では,グラフスペクトル領域におけるフィルタ周波数応答を正規化することにより,アーキテクチャの安定性を向上させる自己正規化グラフニューラルネットワーク(SR-GNN)を開発した。
論文 参考訳(メタデータ) (2022-11-13T17:27:21Z) - Graph Convolutional Neural Networks Sensitivity under Probabilistic Error Model [24.215504503548864]
本稿では,確率的グラフ摂動に対するGCNNの感度を評価するための分析フレームワークを提案する。
本研究は,誤差モデルパラメータに明示的に関連づけられた厳密なGSO誤差境界を確立し,GSO摂動と結果の出力差との線形関係を明らかにする。
実験は、我々の理論的導出とアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2022-03-15T12:40:10Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。