論文の概要: A Simple Spectral Failure Mode for Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2010.13152v3
- Date: Wed, 11 Aug 2021 14:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:20:40.054069
- Title: A Simple Spectral Failure Mode for Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークのための簡易スペクトル故障モード
- Authors: Carey E. Priebe, Cencheng Shen, Ningyuan Huang, Tianyi Chen
- Abstract要約: 本稿では、教師なしグラフ畳み込みネットワークが失敗するのに対して、隣接スペクトル埋め込みが成功する単純な生成モデルを提案する。
この現象は視覚的なイラストや包括的なシミュレーションによって実証される。
- 参考スコア(独自算出の注目度): 22.689023294046237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have achieved remarkable successes in machine learning tasks.
This has recently been extended to graph learning using neural networks.
However, there is limited theoretical work in understanding how and when they
perform well, especially relative to established statistical learning
techniques such as spectral embedding. In this short paper, we present a simple
generative model where unsupervised graph convolutional network fails, while
the adjacency spectral embedding succeeds. Specifically, unsupervised graph
convolutional network is unable to look beyond the first eigenvector in certain
approximately regular graphs, thus missing inference signals in non-leading
eigenvectors. The phenomenon is demonstrated by visual illustrations and
comprehensive simulations.
- Abstract(参考訳): ニューラルネットワークは機械学習タスクで顕著な成功を収めた。
これは最近、ニューラルネットワークを使用してグラフ学習に拡張された。
しかし、特にスペクトル埋め込みのような定評ある統計的学習技術と比較して、どのように、いつ、うまく機能するかを理解するための理論的研究は限られている。
本稿では,教師なしグラフ畳み込みネットワークが失敗し,隣接スペクトル埋め込みが成功する単純な生成モデルを提案する。
具体的には、教師なしグラフ畳み込みネットワークは、ある概正グラフにおいて最初の固有ベクトルを超えることができないので、非リーディング固有ベクトルにおける推論信号が欠落する。
この現象は視覚的なイラストや包括的なシミュレーションによって実証される。
関連論文リスト
- Graph neural networks and non-commuting operators [4.912318087940015]
我々は,グラフトン・タプルニューラルネットワークの極限理論を開発し,それを普遍的な伝達可能性定理の証明に利用する。
我々の理論的結果は、GNNのよく知られた移動可能性定理を、複数の同時グラフの場合にまで拡張する。
得られたモデルの安定性を確実に実施する訓練手順を導出する。
論文 参考訳(メタデータ) (2024-11-06T21:17:14Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Machine learning of percolation models using graph convolutional neural
networks [1.0499611180329804]
機械学習手法によるパーコレーション閾値の予測は依然として困難である。
我々は、教師なしと教師なしの両方の方法でパーコレーションを研究するために、強力なグラフ畳み込みニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2022-07-07T15:17:40Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural
Networks [13.518582483147325]
本稿では,トランスダクティブ推論の文脈におけるニューラルネットワークの性能を厳密に分析する。
本稿では, ブロックモデルに対するグラフ畳み込みネットワークの一般化特性について, トランスダクティブなRademacher複雑性が説明できることを示す。
論文 参考訳(メタデータ) (2021-12-07T20:06:23Z) - Simple Graph Convolutional Networks [72.92604941595019]
単一層グラフ畳み込みネットワークで実装可能な単純なグラフ畳み込み演算子を提案する。
我々の畳み込み演算子は、文献における多くの提案よりも理論的に基礎を置いており、検討されたベンチマークデータセットに最先端の予測性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:23:59Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。