論文の概要: Topologically-Stabilized Graph Neural Networks: Empirical Robustness Across Domains
- arxiv url: http://arxiv.org/abs/2512.13852v1
- Date: Mon, 15 Dec 2025 19:39:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.470549
- Title: Topologically-Stabilized Graph Neural Networks: Empirical Robustness Across Domains
- Title(参考訳): トポロジカル安定化グラフニューラルネットワーク--領域間の経験的ロバスト性-
- Authors: Jelena Losic,
- Abstract要約: グラフニューラルネットワーク(GNN)はグラフ表現学習の標準となっているが、構造的摂動に弱いままである。
本稿では、永続的ホモロジー特徴と安定性の正則化を統合し、堅牢性を高める新しいフレームワークを提案する。
提案手法は, 競争精度を維持しつつ, エッジ摂動に対して極めて頑健であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become the standard for graph representation learning but remain vulnerable to structural perturbations. We propose a novel framework that integrates persistent homology features with stability regularization to enhance robustness. Building on the stability theorems of persistent homology \cite{cohen2007stability}, our method combines GIN architectures with multi-scale topological features extracted from persistence images, enforced by Hiraoka-Kusano-inspired stability constraints. Across six diverse datasets spanning biochemical, social, and collaboration networks , our approach demonstrates exceptional robustness to edge perturbations while maintaining competitive accuracy. Notably, we observe minimal performance degradation (0-4\% on most datasets) under perturbation, significantly outperforming baseline stability. Our work provides both a theoretically-grounded and empirically-validated approach to robust graph learning that aligns with recent advances in topological regularization
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ表現学習の標準となっているが、構造的摂動に弱いままである。
本稿では、永続的ホモロジー特徴と安定性の正則化を統合し、堅牢性を高める新しいフレームワークを提案する。
本手法は, 持続的ホモロジーの安定性定理を基礎として, GINアーキテクチャと持続的画像から抽出したマルチスケールトポロジ的特徴を結合し, 平岡草野に着想を得た安定性制約によって適用する。
バイオケミカルネットワーク,ソーシャルネットワーク,コラボレーションネットワークにまたがる6つの多様なデータセットに対して,本手法は競争精度を維持しつつ,エッジ摂動に対する例外的な堅牢性を示す。
特に、摂動下での最小性能劣化(ほとんどのデータセットでは0-4\%)を観察し、ベースライン安定性を著しく上回った。
我々の研究は、トポロジ的正則化の最近の進歩と整合するロバストグラフ学習への理論的基礎と実証的検証的アプローチの両方を提供する。
関連論文リスト
- PowerGrow: Feasible Co-Growth of Structures and Dynamics for Power Grid Synthesis [75.14189839277928]
本稿では,運用効率を維持しながら計算オーバーヘッドを大幅に削減する,共同生成フレームワークPowerGrowを提案する。
ベンチマーク設定による実験では、PowerGrowはフィデリティと多様性において、事前の拡散モデルよりも優れていた。
これは、運用上有効で現実的な電力グリッドシナリオを生成する能力を示している。
論文 参考訳(メタデータ) (2025-08-29T01:47:27Z) - On the Stability of Graph Convolutional Neural Networks: A Probabilistic Perspective [21.0483487978294]
グラフトポロジにおける摂動がGCNN出力に与える影響について検討し,モデル安定性解析のための新しい定式化を提案する。
最悪の場合の摂動のみに焦点を当てた従来の研究とは異なり、分布認識の定式化は幅広い入力データにまたがる出力摂動を特徴付ける。
論文 参考訳(メタデータ) (2025-06-01T23:17:19Z) - Hierarchical Uncertainty-Aware Graph Neural Network [3.4498722449655066]
この研究は、階層的不確実性認識グラフニューラルネットワーク(HU-GNN)という新しいアーキテクチャを導入している。
マルチスケールな表現学習、原則的不確実性推定、および単一エンドツーエンドフレームワークにおける自己監督型埋め込み多様性を統一する。
具体的には、HU-GNNはノードクラスタを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定する。
論文 参考訳(メタデータ) (2025-04-28T14:22:18Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks [22.751509906413943]
20以上のソリューションを統合する汎用GNNフレームワークであるEdgeNetの安定性について検討する。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
論文 参考訳(メタデータ) (2023-12-04T22:07:17Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。