論文の概要: Understanding Graph Neural Networks from Graph Signal Denoising
Perspectives
- arxiv url: http://arxiv.org/abs/2006.04386v1
- Date: Mon, 8 Jun 2020 07:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:33:41.303133
- Title: Understanding Graph Neural Networks from Graph Signal Denoising
Perspectives
- Title(参考訳): グラフ信号の雑音化の観点からのグラフニューラルネットワークの理解
- Authors: Guoji Fu and Yifan Hou and Jian Zhang and Kaili Ma and Barakeel Fanseu
Kamhoua and James Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は,ノード分類などのタスクの性能に優れていたため,注目されている。
本稿では,GNN,具体的にはスペクトルグラフ畳み込みネットワークとグラフアテンションネットワークを理解するための理論的枠組みを提供することを目的とする。
- 参考スコア(独自算出の注目度): 27.148827305359436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have attracted much attention because of their
excellent performance on tasks such as node classification. However, there is
inadequate understanding on how and why GNNs work, especially for node
representation learning. This paper aims to provide a theoretical framework to
understand GNNs, specifically, spectral graph convolutional networks and graph
attention networks, from graph signal denoising perspectives. Our framework
shows that GNNs are implicitly solving graph signal denoising problems:
spectral graph convolutions work as denoising node features, while graph
attentions work as denoising edge weights. We also show that a linear
self-attention mechanism is able to compete with the state-of-the-art graph
attention methods. Our theoretical results further lead to two new models,
GSDN-F and GSDN-EF, which work effectively for graphs with noisy node features
and/or noisy edges. We validate our theoretical findings and also the
effectiveness of our new models by experiments on benchmark datasets. The
source code is available at \url{https://github.com/fuguoji/GSDN}.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,ノード分類などのタスクの性能に優れていたため,注目されている。
しかし、特にノード表現学習において、GNNがどのように機能するか、なぜ機能するのかについては、不十分な理解がある。
本稿では,GNN,具体的にはスペクトルグラフ畳み込みネットワークとグラフアテンションネットワークを理解するための理論的枠組みを提供する。
スペクトルグラフ畳み込み(spectral graph convolutions)はノード特徴のデノージング(denoising node features)として、グラフの注意はエッジ重み付けのデノージング(denoising edge weights)として機能します。
また、線形自己注意機構が最先端のグラフアテンション手法と競合することを示す。
GSDN-FとGSDN-EFという2つの新しいモデルが、ノイズの多いノード特徴と/またはノイズの多いエッジを持つグラフに対して効果的に機能する。
ベンチマークデータセットを用いた実験により,理論的な結果と新しいモデルの有効性を検証した。
ソースコードは \url{https://github.com/fuguoji/GSDN} で入手できる。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Graph Neural Tangent Kernel: Convergence on Large Graphs [7.624781434274796]
グラフニューラルネットワーク(GNN)は、グラフ機械学習タスクにおいて顕著なパフォーマンスを達成する。
グラフニューラルカーネル(GNTK)とグラフトンを用いた大規模グラフGNNのトレーニングダイナミクスについて検討する。
論文 参考訳(メタデータ) (2023-01-25T19:52:58Z) - A Spectral Analysis of Graph Neural Networks on Dense and Sparse Graphs [13.954735096637298]
そこで我々は,グラフスペクトルの空間分布がグラフスペクトルに与える影響を解析し,グラフニューラルネットワーク(GNN)の高密度グラフとスパースグラフのノード分類における性能について検討した。
GNNはスパースグラフのスペクトル法よりも優れており、これらの結果を合成グラフと実グラフの両方で数値例で示すことができる。
論文 参考訳(メタデータ) (2022-11-06T22:38:13Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Towards Robust Graph Neural Networks for Noisy Graphs with Sparse Labels [24.25945793671978]
ラベル付きノードを限定した雑音グラフ上で,堅牢なGNNを開発するための新しい問題について検討する。
分析の結果,ノイズの多いエッジと限定ラベル付きノードの両方が,GNNのメッセージパッシング機構を損なう可能性が示唆された。
本稿では,ノイズの多いエッジを教師として採用して,雑音に富んだ高密度グラフを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-01T19:00:26Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。