論文の概要: Stable and Transferable Hyper-Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.06513v1
- Date: Fri, 11 Nov 2022 23:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:01:22.638574
- Title: Stable and Transferable Hyper-Graph Neural Networks
- Title(参考訳): 安定かつ伝達可能なハイパーグラフニューラルネットワーク
- Authors: Mikhail Hayhoe, Hans Riess, Victor M. Preciado, and Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
- 参考スコア(独自算出の注目度): 95.07035704188984
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce an architecture for processing signals supported on hypergraphs
via graph neural networks (GNNs), which we call a Hyper-graph Expansion Neural
Network (HENN), and provide the first bounds on the stability and
transferability error of a hypergraph signal processing model. To do so, we
provide a framework for bounding the stability and transferability error of
GNNs across arbitrary graphs via spectral similarity. By bounding the
difference between two graph shift operators (GSOs) in the positive
semi-definite sense via their eigenvalue spectrum, we show that this error
depends only on the properties of the GNN and the magnitude of spectral
similarity of the GSOs. Moreover, we show that existing transferability results
that assume the graphs are small perturbations of one another, or that the
graphs are random and drawn from the same distribution or sampled from the same
graphon can be recovered using our approach. Thus, both GNNs and our HENNs
(trained using normalized Laplacians as graph shift operators) will be
increasingly stable and transferable as the graphs become larger. Experimental
results illustrate the importance of considering multiple graph representations
in HENN, and show its superior performance when transferability is desired.
- Abstract(参考訳): 我々は,ハイパーグラフ拡張ニューラルネットワーク (henn) と呼ぶグラフニューラルネットワーク (gnns) によるハイパーグラフ上で支援される信号を処理するためのアーキテクチャを導入し,ハイパーグラフ信号処理モデルの安定性と転送可能性に関する最初の境界を提供する。
そのため、スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差を境界付けるためのフレームワークを提供する。
正半定値な意味での2つのグラフシフト作用素(GSO)の差を固有値スペクトルによって有界にすることで、この誤差はGNNの特性とGSOのスペクトル類似度の大きさにのみ依存することを示す。
さらに,グラフが互いに小さな摂動であると仮定した既存の転送可能性結果や,同一分布からランダムに描画されたグラフや,同一のグラフからサンプリングされたグラフを,このアプローチで復元できることを示す。
したがって、GNNとHENN(正規化ラプラシアンをグラフシフト演算子として使用した)は、グラフが大きくなるにつれて安定し、転送可能である。
実験の結果,複数のグラフ表現を henn で検討することの重要性が示され,転送性が要求される場合,その優れた性能を示す。
関連論文リスト
- Transferability of Graph Neural Networks using Graphon and Sampling
Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Distributional Signals for Node Classification in Graph Neural Networks [36.30743671968087]
グラフニューラルネットワーク(GNN)では、ノード特徴とラベルの両方がグラフ信号の例であり、グラフ信号処理(GSP)における鍵概念である。
本フレームワークでは,ノードラベルの分布をその値の代わりに扱うとともに,そのような分布グラフ信号の滑らかさと非均一性の概念を提案する。
次に,GNNの一般正規化手法を提案し,半教師付きノード分類タスクにおけるモデル出力の分布の滑らかさと非均一性をエンコードする。
論文 参考訳(メタデータ) (2023-04-07T06:54:42Z) - Learning Stable Graph Neural Networks via Spectral Regularization [18.32587282139282]
グラフニューラルネットワーク(GNN)の安定性は、GNNがグラフ摂動にどう反応するかを特徴付け、ノイズの多いシナリオでアーキテクチャのパフォーマンスを保証する。
本稿では,グラフスペクトル領域におけるフィルタ周波数応答を正規化することにより,アーキテクチャの安定性を向上させる自己正規化グラフニューラルネットワーク(SR-GNN)を開発した。
論文 参考訳(メタデータ) (2022-11-13T17:27:21Z) - ES-GNN: Generalizing Graph Neural Networks Beyond Homophily with Edge
Splitting [32.69196871253339]
本稿では,グラフエッジを適応的に識別する新しいエッジ分割GNN(ES-GNN)フレームワークを提案する。
これは本質的に、元のグラフを同じノードセットを持つ2つの部分グラフに変換するが、排他的なエッジセットである。
本稿では,ES-GNNを非交叉グラフ記述問題の解とみなすことができることを示す。
論文 参考訳(メタデータ) (2022-05-27T01:29:03Z) - Transferability of Graph Neural Networks: an Extended Graphon Approach [3.042325619220694]
スペクトルグラフ畳み込みニューラルネットワーク(GCNN)について検討する。
本稿では,グラノン分析に基づく転送可能性のモデルについて考察する。
論文 参考訳(メタデータ) (2021-09-21T10:59:01Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。