論文の概要: The Oversmoothing Fallacy: A Misguided Narrative in GNN Research
- arxiv url: http://arxiv.org/abs/2506.04653v1
- Date: Thu, 05 Jun 2025 05:49:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.556108
- Title: The Oversmoothing Fallacy: A Misguided Narrative in GNN Research
- Title(参考訳): GNN研究における過度な誤り:誤解された物語
- Authors: MoonJeong Park, Sunghyun Choi, Jaeseung Heo, Eunhyeok Park, Dongwoo Kim,
- Abstract要約: ディープグラフニューラルネットワーク(GNN)構築の主な障害として、オーバースムーシングが認識されている。
本稿では, 過密化の影響が過大評価され, 深層GNNアーキテクチャのさらなる探索を提唱している。
- 参考スコア(独自算出の注目度): 9.694010867775068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oversmoothing has been recognized as a main obstacle to building deep Graph Neural Networks (GNNs), limiting the performance. This position paper argues that the influence of oversmoothing has been overstated and advocates for a further exploration of deep GNN architectures. Given the three core operations of GNNs, aggregation, linear transformation, and non-linear activation, we show that prior studies have mistakenly confused oversmoothing with the vanishing gradient, caused by transformation and activation rather than aggregation. Our finding challenges prior beliefs about oversmoothing being unique to GNNs. Furthermore, we demonstrate that classical solutions such as skip connections and normalization enable the successful stacking of deep GNN layers without performance degradation. Our results clarify misconceptions about oversmoothing and shed new light on the potential of deep GNNs.
- Abstract(参考訳): オーバースムーシングは、ディープグラフニューラルネットワーク(GNN)構築の主な障害として認識されており、パフォーマンスが制限されている。
このポジションペーパーは、過密化の影響が過大評価され、深層GNNアーキテクチャのさらなる探索を提唱している。
GNNの3つのコア演算、アグリゲーション、線形変換、非線形活性化を考えると、先行研究は、アグリゲーションよりもトランスフォーメーションやアクティベーションによって引き起こされる、消滅する勾配と誤って混同されている。
我々の発見は、GNNに特有の過度なスムーシングに関する以前の信念に挑戦する。
さらに、スキップ接続や正規化のような古典的なソリューションは、性能劣化を伴わずに深いGNN層の積み重ねを成功させることができることを示した。
以上の結果から, 深部GNNの可能性に新たな光を放ち, 過密化に対する誤解を明らかにすることができた。
関連論文リスト
- On Vanishing Gradients, Over-Smoothing, and Over-Squashing in GNNs: Bridging Recurrent and Graph Learning [15.409865070022951]
グラフニューラルネットワーク(GNN)は、グラフ構造を利用してノード間で情報を伝達するモデルである。
GNNの単純な状態空間の定式化は、余分な訓練可能なパラメータコストを伴わずに、過度な平滑化と過度なスキャッシングを効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2025-02-15T14:43:41Z) - Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Certified Defense on the Fairness of Graph Neural Networks [86.14235652889242]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Feature Overcorrelation in Deep Graph Neural Networks: A New Perspective [44.96635754139024]
オーバースムーシングは、深いGNNの性能を制限する重要な問題の1つとして特定されている。
本稿では, 深部GNNの性能劣化, すなわち, 機能の過度な相関について考察する。
特徴相関を低減するために,GNNが冗長な情報をエンコードすることを促進できる汎用フレームワークであるDeCorrを提案する。
論文 参考訳(メタデータ) (2022-06-15T18:13:52Z) - Universal Deep GNNs: Rethinking Residual Connection in GNNs from a Path
Decomposition Perspective for Preventing the Over-smoothing [50.242926616772515]
近年の研究では、残りの結合を持つGNNが変性をわずかに遅らせていることが示されている。
本稿では,新しい経路分解の観点からの残差接続を有するGNNの前方・後方挙動について検討する。
コールドスタート適応残差接続(DRIVE)とフィードフォワードモジュールを備えたUniversal Deep GNNsフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-30T14:19:45Z) - Addressing Over-Smoothing in Graph Neural Networks via Deep Supervision [13.180922099929765]
ディープグラフニューラルネットワーク(GNN)は、層数が増加すると過度に滑らかになる。
本研究では,すべての層で学習した表現を訓練に利用するDSGNNを提案する。
DSGNNは過度に平滑であり,ノードおよびグラフ特性予測問題における競合ベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:05:55Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。