論文の概要: How Powerful is Implicit Denoising in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.14514v1
- Date: Thu, 29 Sep 2022 02:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:39:50.373422
- Title: How Powerful is Implicit Denoising in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークがいかに強力か
- Authors: Songtao Liu, Rex Ying, Hanze Dong, Lu Lin, Jinghui Chen, Dinghao Wu
- Abstract要約: 我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
- 参考スコア(独自算出の注目度): 33.01155523195073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs), which aggregate features from neighbors, are
widely used for graph-structured data processing due to their powerful
representation learning capabilities. It is generally believed that GNNs can
implicitly remove the non-predictive noises. However, the analysis of implicit
denoising effect in graph neural networks remains open. In this work, we
conduct a comprehensive theoretical study and analyze when and why the implicit
denoising happens in GNNs. Specifically, we study the convergence properties of
noise matrix. Our theoretical analysis suggests that the implicit denoising
largely depends on the connectivity, the graph size, and GNN architectures.
Moreover, we formally define and propose the adversarial graph signal denoising
(AGSD) problem by extending graph signal denoising problem. By solving such a
problem, we derive a robust graph convolution, where the smoothness of the node
representations and the implicit denoising effect can be enhanced. Extensive
empirical evaluations verify our theoretical analyses and the effectiveness of
our proposed model.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は,その強力な表現学習能力により,グラフ構造化データ処理に広く利用されている。
一般的に、GNNは非予測ノイズを暗黙的に除去できると考えられている。
しかし、グラフニューラルネットワークにおける暗黙のノイズ発生効果の分析は依然として行われている。
本研究では,包括的理論的研究を行い,gnnにおいて暗黙的な発声がいつ,なぜ起こるのかを分析した。
具体的には,雑音行列の収束特性について検討する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
さらに,グラフ信号の雑音化問題を拡張することにより,逆グラフ信号雑音化問題(agsd)を形式的に定義・提案する。
このような問題を解決することで、ノード表現の滑らかさと暗黙的消音効果を高めることができるロバストなグラフ畳み込みが得られる。
広範な実験評価により,提案モデルの理論的解析と有効性が検証された。
関連論文リスト
- You Can't Ignore Either: Unifying Structure and Feature Denoising for Robust Graph Learning [34.52299775051481]
我々は、構造と特徴のデッドロックを解き放つために、統一グラフ復調(UGD)フレームワークを開発する。
具体的には、ノイズエッジを認識するために、高次近傍評価法を提案する。
また,グラフオートエンコーダをベースとした,ノイズの多い特徴の再現も提案する。
論文 参考訳(メタデータ) (2024-08-01T16:43:55Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Non-Asymptotic Analysis of Oversmoothing in Graph Neural Networks [33.35609077417775]
非漸近解析により,この現象の背後にあるメカニズムを特徴づける。
混合効果がデノナイジング効果を支配し始めると,過スムージングが生じることを示す。
以上の結果から,PPRは深い層での過度なスムース化を緩和するが,PPRベースのアーキテクチャは依然として浅い深さで最高の性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2022-12-21T00:33:59Z) - Oversquashing in GNNs through the lens of information contraction and
graph expansion [6.8222473597904845]
本稿では,情報収縮に基づく過疎分析のためのフレームワークを提案する。
オーバーカッシングを緩和するグラフ再配線アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-06T08:44:39Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Understanding Graph Neural Networks from Graph Signal Denoising
Perspectives [27.148827305359436]
グラフニューラルネットワーク(GNN)は,ノード分類などのタスクの性能に優れていたため,注目されている。
本稿では,GNN,具体的にはスペクトルグラフ畳み込みネットワークとグラフアテンションネットワークを理解するための理論的枠組みを提供することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T07:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。