論文の概要: Over-smoothing Effect of Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2201.12830v1
- Date: Sun, 30 Jan 2022 14:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 05:57:22.402284
- Title: Over-smoothing Effect of Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークの過平滑化効果
- Authors: Fang Sun
- Abstract要約: 本稿では、グラフ畳み込みネットワークの背後にあるメカニズムと過度にスムースな効果を包括的に分析する。
本稿では,過平化の背景にある要因について考察した上で,過平化の発生の上限について述べる。
- 参考スコア(独自算出の注目度): 1.7970523486905976
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Over-smoothing is a severe problem which limits the depth of Graph
Convolutional Networks. This article gives a comprehensive analysis of the
mechanism behind Graph Convolutional Networks and the over-smoothing effect.
The article proposes an upper bound for the occurrence of over-smoothing, which
offers insight into the key factors behind over-smoothing. The results
presented in this article successfully explain the feasibility of several
algorithms that alleviate over-smoothing.
- Abstract(参考訳): オーバースムーシングはグラフ畳み込みネットワークの深さを制限する深刻な問題である。
本稿では,グラフ畳み込みネットワークの背後にあるメカニズムとオーバースムーシング効果の包括的解析を行う。
この記事では、オーバースムーシングの背後にある重要な要因についての洞察を提供する、オーバースムーシングの発生の上限を提案する。
本稿では,過度なスムーシングを緩和するアルゴリズムの実現可能性について述べる。
関連論文リスト
- Better Not to Propagate: Understanding Edge Uncertainty and Over-smoothing in Signed Graph Neural Networks [3.4498722449655066]
本稿では,学習中のブロックと署名された伝搬の動的選択と一体化して,ホモフィリーとエッジの誤差比を推定する新しい手法を提案する。
我々の理論解析は, 広範囲な実験によって支持され, 高エッジ誤差比下では, 符号付き伝搬よりもブロックMPの方が有効であることを示す。
論文 参考訳(メタデータ) (2024-08-09T06:46:06Z) - ResolvNet: A Graph Convolutional Network with multi-scale Consistency [47.98039061491647]
マルチスケール一貫性の概念を導入する。
グラフレベルでは、マルチスケールの一貫性は、異なる解像度で同じオブジェクトを記述する異なるグラフが同様の特徴ベクトルを割り当てるべきという事実を指す。
本稿では,リゾルダーの数学的概念に基づくフレキシブルグラフニューラルネットワークResolvNetを紹介する。
論文 参考訳(メタデータ) (2023-09-30T16:46:45Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - A Non-Asymptotic Analysis of Oversmoothing in Graph Neural Networks [33.35609077417775]
非漸近解析により,この現象の背後にあるメカニズムを特徴づける。
混合効果がデノナイジング効果を支配し始めると,過スムージングが生じることを示す。
以上の結果から,PPRは深い層での過度なスムース化を緩和するが,PPRベースのアーキテクチャは依然として浅い深さで最高の性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2022-12-21T00:33:59Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Learning node embeddings via summary graphs: a brief theoretical
analysis [55.25628709267215]
グラフ表現学習は多くのグラフマイニングアプリケーションにおいて重要な役割を果たすが、大規模なグラフの埋め込みを学習することは依然として問題である。
最近の研究は、グラフの要約(つまり、より小さな要約グラフへの埋め込みを学習し、元のグラフのノード埋め込みを復元することでスケーラビリティを向上させる。
本稿では,導入したカーネル行列に基づく3つの特定の埋め込み学習手法について,詳細な理論的解析を行う。
論文 参考訳(メタデータ) (2022-07-04T04:09:50Z) - Preventing Over-Smoothing for Hypergraph Neural Networks [0.0]
階層数の増加に伴い,ハイパーグラフニューラルネットワークの性能は向上しないことを示す。
我々はディープ・HGCNと呼ばれる新しいディープ・ハイパーグラフ・畳み込みネットワークを開発し、ディープ・レイヤにおけるノード表現を維持できる。
論文 参考訳(メタデータ) (2022-03-31T16:33:31Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - A Note on Over-Smoothing for Graph Neural Networks [13.008323851750442]
我々は、一般的なグラフニューラルネットワークアーキテクチャにおけるオーバースムーシング効果を分析するために、以前の結果であるciteoono 2019graphに基づいて構築する。
重み行列が拡張正規化ラプラシアンのスペクトルによって決定される条件を満たすとき、埋め込みのディリクレエネルギーは 0 に収束し、判別力を失う。
論文 参考訳(メタデータ) (2020-06-23T20:36:56Z) - Deep Learning for Learning Graph Representations [58.649784596090385]
グラフデータのマイニングはコンピュータ科学においてポピュラーな研究トピックとなっている。
ネットワークデータの膨大な量は、効率的な分析に大きな課題をもたらしている。
これはグラフ表現の出現を動機付け、グラフを低次元ベクトル空間にマッピングする。
論文 参考訳(メタデータ) (2020-01-02T02:13:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。