論文の概要: Exploring the impact of adaptive rewiring in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.10754v1
- Date: Wed, 11 Feb 2026 11:34:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.8205
- Title: Exploring the impact of adaptive rewiring in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるアダプティブ・リウィリングの影響を探る
- Authors: Charlotte Cambier van Nooten, Christos Aronis, Yuliya Shapovalova, Lucia Cavallaro,
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)における正規化の一形態としてスペーシフィケーション手法について検討し,高いメモリ使用量と計算コストに対処する。
ネットワークサイエンスと機械学習の技法を用いて、実世界のアプリケーションにおけるGNNの効率を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper explores sparsification methods as a form of regularization in Graph Neural Networks (GNNs) to address high memory usage and computational costs in large-scale graph applications. Using techniques from Network Science and Machine Learning, including Erdős-Rényi for model sparsification, we enhance the efficiency of GNNs for real-world applications. We demonstrate our approach on N-1 contingency assessment in electrical grids, a critical task for ensuring grid reliability. We apply our methods to three datasets of varying sizes, exploring Graph Convolutional Networks (GCN) and Graph Isomorphism Networks (GIN) with different degrees of sparsification and rewiring. Comparison across sparsification levels shows the potential of combining insights from both research fields to improve GNN performance and scalability. Our experiments highlight the importance of tuning sparsity parameters: while sparsity can improve generalization, excessive sparsity may hinder learning of complex patterns. Our adaptive rewiring approach, particularly when combined with early stopping, proves promising by allowing the model to adapt its connectivity structure during training. This research contributes to understanding how sparsity can be effectively leveraged in GNNs for critical applications like power grid reliability analysis.
- Abstract(参考訳): 本稿では,大規模グラフアプリケーションにおける高メモリ使用量および計算コストに対処するため,グラフニューラルネットワーク(GNN)の正規化の一形態としてスペーシフィケーション手法について検討する。
モデルスペーシフィケーションにエルデシュ=レニエなど,ネットワークサイエンスや機械学習の手法を用いることで,実世界のアプリケーションにおけるGNNの効率を向上する。
電力網におけるN-1整合性評価に対する我々のアプローチを実証する。
我々は,グラフ畳み込みネットワーク(GCN)とグラフアイソモーフィックネットワーク(GIN)の3つのデータセットに対して,スペース化とリウィリングの度合いの異なる手法を適用した。
スパーシフィケーションレベルの比較は、GNNの性能とスケーラビリティを改善するために、両方の研究分野からの洞察を組み合わせる可能性を示している。
疎度は一般化を改善することができるが、過剰な疎度は複雑なパターンの学習を妨げる可能性がある。
我々の適応的なリワイアリングアプローチは、特に早期停止と組み合わせることで、トレーニング中にモデルが接続構造を適応させることで有望であることを証明している。
この研究は、電力グリッド信頼性分析のような重要なアプリケーションにおいて、GNNにおいて空間性をどのように効果的に活用できるかを理解するのに寄与する。
関連論文リスト
- Hybrid variable spiking graph neural networks for energy-efficient scientific machine learning [2.099922236065961]
本稿では,そのアーキテクチャ内で可変スパイキングニューロン(VSN)を用いて疎通信を促進するハイブリッド可変スパイキンググラフニューラルネットワーク(HVS-GNN)を提案する。
VSNは、スパースなイベント駆動型計算を推進しながらも、しばしば計算力学アプリケーションで遭遇する回帰タスクでもうまく機能する。
その結果,HVS-GNNは疎通信の促進とエネルギー効率の向上を図った。
論文 参考訳(メタデータ) (2024-12-12T15:47:17Z) - Attentional Graph Neural Network Is All You Need for Robust Massive Network Localization [26.85290529046327]
我々は,大規模ネットワークローカライゼーションという重要な非線形回帰問題に対処するための注意機構を備えたグラフニューラルネットワーク(GNN)を設計する。
グラフ畳み込みネットワーク(GCN)に基づく従来のネットワークローカライゼーション手法について概観する。
拡張として,GCN方式の感度閾値決定問題を解決するために,特別に設計された注意型GNN (AGNN) モデルを提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。