論文の概要: Gumbel-MPNN: Graph Rewiring with Gumbel-Softmax
- arxiv url: http://arxiv.org/abs/2508.17531v1
- Date: Sun, 24 Aug 2025 21:41:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.570511
- Title: Gumbel-MPNN: Graph Rewiring with Gumbel-Softmax
- Title(参考訳): Gumbel-MPNN: Gumbel-Softmaxでグラフを切り替える
- Authors: Marcel Hoffmann, Lukas Galke, Ansgar Scherp,
- Abstract要約: 我々は,MPNNの性能が,クラス内の全近傍分布の成分数に依存することを示す。
Gumbel-Softmax-based rewiring method that reduces deviations in neighborhood distributions。
以上の結果から,本手法は,近隣情報性の向上,長距離依存性の処理,過度な監視の軽減,MPNNの分類性能の向上を実現している。
- 参考スコア(独自算出の注目度): 3.8428485996605173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph homophily has been considered an essential property for message-passing neural networks (MPNN) in node classification. Recent findings suggest that performance is more closely tied to the consistency of neighborhood class distributions. We demonstrate that the MPNN performance depends on the number of components of the overall neighborhood distribution within a class. By breaking down the classes into their neighborhood distribution components, we increase measures of neighborhood distribution informativeness but do not observe an improvement in MPNN performance. We propose a Gumbel-Softmax-based rewiring method that reduces deviations in neighborhood distributions. Our results show that our new method enhances neighborhood informativeness, handles long-range dependencies, mitigates oversquashing, and increases the classification performance of the MPNN. The code is available at https://github.com/Bobowner/Gumbel-Softmax-MPNN.
- Abstract(参考訳): グラフホモフィリーは、ノード分類においてメッセージパッシングニューラルネットワーク(MPNN)にとって重要な性質であると考えられている。
最近の知見から, 性能は近隣階級分布の一貫性とより密接な関係があることが示唆された。
我々は,MPNNの性能がクラス内の全近傍分布の成分数に依存することを示した。
クラスをその近傍分布成分に分割することにより、近隣分布情報度を向上するが、MPNNの性能改善は見つからない。
Gumbel-Softmax-based rewiring method that reduces deviations in neighborhood distributions。
以上の結果から,本手法は,近隣情報性の向上,長距離依存性の処理,過度な監視の軽減,MPNNの分類性能の向上を実現している。
コードはhttps://github.com/Bobowner/Gumbel-Softmax-MPNNで公開されている。
関連論文リスト
- Graph Learning at Scale: Characterizing and Optimizing Pre-Propagation GNNs [9.21955649907066]
プレプロパゲーションGNNは、トレーニングから前処理を通じて機能の伝搬を分離する新しいモデルのクラスである。
本稿では,PP-GNNの学習効率,スケーラビリティ,精度について,グラフサンプリングに基づく手法と比較し,包括的特徴付けを行う。
本稿では,PP-GNNトレーニングのスループットを,PP-GNNベースライン上で平均15$times$で向上させる最適化されたデータロード方式と調整されたトレーニング手法を提案する。
論文 参考訳(メタデータ) (2025-04-17T18:20:40Z) - KAGNNs: Kolmogorov-Arnold Networks meet Graph Learning [27.638009679134523]
グラフニューラルネットワーク(GNN)は,ノードとグラフ表現を学習するためのデファクトツールとなっている。
我々はそれぞれGCN, GAT, GINの3つの新しいkanベースのGNN層を実装した。
本研究の結果から, カンはアーノルドより優れていることが示唆された。
論文 参考訳(メタデータ) (2024-06-26T14:21:21Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - Mixed Graph Contrastive Network for Semi-Supervised Node Classification [63.924129159538076]
我々はMixed Graph Contrastive Network(MGCN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
本研究では,非摂動増強戦略と相関還元機構により,潜伏埋め込みの識別能力を向上する。
これら2つの設定を組み合わせることで、識別表現学習のために、豊富なノードと稀に価値あるラベル付きノードの両方から、豊富な監視情報を抽出する。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Edge Entropy as an Indicator of the Effectiveness of GNNs over CNNs for
Node Classification [0.0]
グラフニューラルネットワーク(GNN)は、畳み込みニューラルネットワーク(CNN)をグラフベースのデータに拡張する。
質問は、CNN上でGNNの基本的なグラフ構造がどの程度のパフォーマンス向上をもたらすかということです。
エッジエントロピーを導入し,CNNに対するGNNの性能向上のための指標としての評価を行う。
論文 参考訳(メタデータ) (2020-12-16T02:07:38Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。