論文の概要: Curriculum Guided Personalized Subgraph Federated Learning
- arxiv url: http://arxiv.org/abs/2509.00402v1
- Date: Sat, 30 Aug 2025 08:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.217895
- Title: Curriculum Guided Personalized Subgraph Federated Learning
- Title(参考訳): カリキュラムガイドによる個人化サブグラフフェデレーション学習
- Authors: Minku Kang, Hogun Park,
- Abstract要約: Subgraph Federated Learning (FL)は、分散プライベートサブグラフ間でグラフニューラルネットワーク(GNN)をトレーニングすることを目的としている。
重み付きモデルアグリゲーションは、類似のサブグラフ特性を持つクライアントからパラメータにより大きな重みを割り当てることで、各ローカルGNNをパーソナライズする。
そこで我々は,Curriculum Guided PersonalsUbgraph Federated Learning (CUFL) という新たなサブグラフFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.721619913104899
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Subgraph Federated Learning (FL) aims to train Graph Neural Networks (GNNs) across distributed private subgraphs, but it suffers from severe data heterogeneity. To mitigate data heterogeneity, weighted model aggregation personalizes each local GNN by assigning larger weights to parameters from clients with similar subgraph characteristics inferred from their current model states. However, the sparse and biased subgraphs often trigger rapid overfitting, causing the estimated client similarity matrix to stagnate or even collapse. As a result, aggregation loses effectiveness as clients reinforce their own biases instead of exploiting diverse knowledge otherwise available. To this end, we propose a novel personalized subgraph FL framework called Curriculum guided personalized sUbgraph Federated Learning (CUFL). On the client side, CUFL adopts Curriculum Learning (CL) that adaptively selects edges for training according to their reconstruction scores, exposing each GNN first to easier, generic cross-client substructures and only later to harder, client-specific ones. This paced exposure prevents early overfitting to biased patterns and enables gradual personalization. By regulating personalization, the curriculum also reshapes server aggregation from exchanging generic knowledge to propagating client-specific knowledge. Further, CUFL improves weighted aggregation by estimating client similarity using fine-grained structural indicators reconstructed on a random reference graph. Extensive experiments on six benchmark datasets confirm that CUFL achieves superior performance compared to relevant baselines. Code is available at https://github.com/Kang-Min-Ku/CUFL.git.
- Abstract(参考訳): Subgraph Federated Learning (FL)は、分散プライベートサブグラフ間でグラフニューラルネットワーク(GNN)をトレーニングすることを目的としている。
データの不均一性を緩和するために、重み付きモデルアグリゲーションは、現在のモデル状態から推定される類似のサブグラフ特性を持つクライアントからのパラメータにより大きな重みを割り当てることで、各ローカルGNNをパーソナライズする。
しかし、スパースとバイアスのある部分グラフは、しばしば急激なオーバーフィッティングを引き起こし、推定されたクライアントの類似性行列が停滞または崩壊する。
結果として、アグリゲーションは、クライアントが利用可能な多様な知識を活用するのではなく、自身のバイアスを強化することで効果を失う。
そこで本稿では,Curriculum Guided PersonalsUbgraph Federated Learning (CUFL) という新たなサブグラフFLフレームワークを提案する。
クライアント側では、CUFLがCurriculum Learning (CL)を採用して、再構成スコアに従ってエッジを適応的に選択し、まず各GNNを、より簡単で汎用的なクロスクライアントサブ構造に、後にはより難しいクライアント固有のサブ構造に公開する。
このペースト露光は、偏りのあるパターンへの早期の過剰適合を防ぎ、段階的なパーソナライズを可能にする。
このカリキュラムはパーソナライゼーションを規制することによって、一般的な知識の交換からクライアント固有の知識の伝達へとサーバ集約を加速させる。
さらに、CUFLは、ランダムな参照グラフ上に再構成されたきめ細かな構造指標を用いて、クライアントの類似性を推定することにより重み付け集約を改善する。
6つのベンチマークデータセットに対する大規模な実験は、CUFLが関連するベースラインよりも優れたパフォーマンスを達成することを確認した。
コードはhttps://github.com/Kang-Min-Ku/CUFL.gitで入手できる。
関連論文リスト
- Personalized Subgraph Federated Learning with Sheaf Collaboration [22.825083541211168]
FedSheafHNは、効率的なパーソナライズされたモデル生成で拡張されたクライアント記述子を統合するための、棚のコラボレーションメカニズム上に構築された新しいフレームワークである。
具体的には、FedSheafHNは各クライアントのローカルサブグラフをサーバ構築のコラボレーショングラフに埋め込む。
サーバ最適化ハイパーネットワークを通じて、カスタマイズされたクライアントモデルを生成する。
論文 参考訳(メタデータ) (2025-08-19T08:52:50Z) - Personalized Subgraph Federated Learning with Differentiable Auxiliary Projections [14.636973991912113]
補助投影を用いたフェデレーション学習(FedAux)を紹介する。
FedAuxはパーソナライズされたサブグラフFLフレームワークで、生のデータやノードの埋め込みを共有することなく、均一に分散されたローカルモデルを調整、比較、集約することを学ぶ。
多様なグラフベンチマークによる実証的な評価は、FedAuxが精度とパーソナライズ性能の両方で既存のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-29T09:17:49Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - SAFL: Structure-Aware Personalized Federated Learning via Client-Specific Clustering and SCSI-Guided Model Pruning [11.0839911783691]
フェデレートラーニング(FL)は、クライアントがローカルデータを共有せずに、さまざまな環境でプライバシを保存することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では、クライアント固有のクラスタリングによるパーソナライズされたフェデレーション学習を強化する新しいフレームワークであるSAFL(Structure-Aware Federated Learning)と、SCSI(Simisal Client Structure Information)誘導モデルプルーニングを紹介する。
論文 参考訳(メタデータ) (2025-01-30T08:59:44Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。