論文の概要: Sharpness-aware Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2512.16247v1
- Date: Thu, 18 Dec 2025 06:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.959076
- Title: Sharpness-aware Federated Graph Learning
- Title(参考訳): シャープネスを考慮したフェデレーショングラフ学習
- Authors: Ruiyu Li, Peige Zhao, Guangxia Li, Pengcheng Wu, Xingyu Gao, Zhiqiang Xu,
- Abstract要約: 大規模実世界のグラフデータにグラフニューラルネットワーク(GNN)を適用する上での障害のひとつは、集中的なトレーニングの課題である。
フェデレーショングラフ学習(FGL)は、プライベートデータを共有せずに協調的なGNNモデルトレーニングを可能にすることで、この問題に対処する。
- 参考スコア(独自算出の注目度): 16.148982247077157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of many impediments to applying graph neural networks (GNNs) to large-scale real-world graph data is the challenge of centralized training, which requires aggregating data from different organizations, raising privacy concerns. Federated graph learning (FGL) addresses this by enabling collaborative GNN model training without sharing private data. However, a core challenge in FGL systems is the variation in local training data distributions among clients, known as the data heterogeneity problem. Most existing solutions suffer from two problems: (1) The typical optimizer based on empirical risk minimization tends to cause local models to fall into sharp valleys and weakens their generalization to out-of-distribution graph data. (2) The prevalent dimensional collapse in the learned representations of local graph data has an adverse impact on the classification capacity of the GNN model. To this end, we formulate a novel optimization objective that is aware of the sharpness (i.e., the curvature of the loss surface) of local GNN models. By minimizing the loss function and its sharpness simultaneously, we seek out model parameters in a flat region with uniformly low loss values, thus improving the generalization over heterogeneous data. By introducing a regularizer based on the correlation matrix of local representations, we relax the correlations of representations generated by individual local graph samples, so as to alleviate the dimensional collapse of the learned model. The proposed \textbf{S}harpness-aware f\textbf{E}derated gr\textbf{A}ph \textbf{L}earning (SEAL) algorithm can enhance the classification accuracy and generalization ability of local GNN models in federated graph learning. Experimental studies on several graph classification benchmarks show that SEAL consistently outperforms SOTA FGL baselines and provides gains for more participants.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)を大規模な実世界のグラフデータに適用するための多くの障害の1つは、集中的なトレーニングの課題である。
フェデレーショングラフ学習(FGL)は、プライベートデータを共有せずに協調的なGNNモデルトレーニングを可能にすることで、この問題に対処する。
しかし、FGLシステムの中核となる課題は、データ不均一性問題として知られるクライアント間のローカルトレーニングデータの分散の変化である。
実験的リスク最小化に基づく典型的なオプティマイザは、局所モデルをシャープな谷に落とし、分布外グラフデータへの一般化を弱める傾向にある。
2) 局所グラフデータの学習表現における有意な次元崩壊は, GNNモデルの分類能力に悪影響を及ぼす。
この目的のために、局所的なGNNモデルのシャープネス(すなわち損失面の曲率)を認識する新しい最適化目標を定式化する。
損失関数とその鋭さを同時に最小化することにより、均一に損失値の低い平坦領域におけるモデルパラメータを求め、不均一なデータに対する一般化を改善する。
局所表現の相関行列に基づく正規化器を導入することにより、個々の局所グラフサンプルによって生成された表現の相関関係を緩和し、学習モデルの次元崩壊を緩和する。
提案アルゴリズムは,グラフ学習における局所GNNモデルの分類精度と一般化能力を向上させることができる。
いくつかのグラフ分類ベンチマークに関する実験的研究は、SEALがSOTA FGLベースラインを一貫して上回り、より多くの参加者に利益をもたらすことを示している。
関連論文リスト
- GraphFedMIG: Tackling Class Imbalance in Federated Graph Learning via Mutual Information-Guided Generation [19.1700923188257]
フェデレーショングラフ学習(FGL)は、複数のクライアントがプライベートな分散グラフデータを共有することなく、強力なグラフニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,新たなFGLフレームワークであるGraphFedMIGを提案する。
実世界の4つのデータセットについて広範な実験を行い、提案したGraphFedMIGが他のベースラインと比較して優れていることを示す。
論文 参考訳(メタデータ) (2025-08-14T09:16:56Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。