論文の概要: Subgraph Federated Learning via Spectral Methods
- arxiv url: http://arxiv.org/abs/2510.25657v1
- Date: Wed, 29 Oct 2025 16:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.798891
- Title: Subgraph Federated Learning via Spectral Methods
- Title(参考訳): スペクトル法によるサブグラフフェデレーション学習
- Authors: Javad Aliakbari, Johan Östman, Ashkan Panahi, Alexandre Graell i Amat,
- Abstract要約: FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
- 参考スコア(独自算出の注目度): 52.40322201034717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of federated learning (FL) with graph-structured data distributed across multiple clients. In particular, we address the prevalent scenario of interconnected subgraphs, where interconnections between clients significantly influence the learning process. Existing approaches suffer from critical limitations, either requiring the exchange of sensitive node embeddings, thereby posing privacy risks, or relying on computationally-intensive steps, which hinders scalability. To tackle these challenges, we propose FedLap, a novel framework that leverages global structure information via Laplacian smoothing in the spectral domain to effectively capture inter-node dependencies while ensuring privacy and scalability. We provide a formal analysis of the privacy of FedLap, demonstrating that it preserves privacy. Notably, FedLap is the first subgraph FL scheme with strong privacy guarantees. Extensive experiments on benchmark datasets demonstrate that FedLap achieves competitive or superior utility compared to existing techniques.
- Abstract(参考訳): 複数のクライアントに分散したグラフ構造化データを用いたフェデレーション学習(FL)の問題点を考察する。
特に,クライアント間の相互接続が学習プロセスに大きく影響を与える,相互接続サブグラフの一般的なシナリオに対処する。
既存のアプローチは、機密性の高いノードの埋め込みの交換を必要とするか、プライバシー上のリスクを生じるか、あるいはスケーラビリティを妨げる計算集約的なステップに依存するか、重大な制限に悩まされている。
これらの課題に対処するために、FedLapを提案する。これは、スペクトル領域におけるラプラシアンスムージングによるグローバル構造情報を利用して、プライバシーとスケーラビリティを確保しつつ、ノード間の依存関係を効果的にキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
特に、FedLapは、強力なプライバシー保証を備えた最初のサブグラフFLスキームである。
ベンチマークデータセットに関する大規模な実験は、FedLapが既存の技術と比較して、競争力または優れたユーティリティを達成することを示した。
関連論文リスト
- FedSSP: Federated Graph Learning with Spectral Knowledge and Personalized Preference [31.796411806840087]
フェデレートされたグラフ学習(pFGL)は、プライバシーを損なうことなく、グラフニューラルネットワーク(GNN)の分散トレーニングを容易にする。
それまでのpFGLメソッドは、非ジェネリックな知識を全世界で誤って共有し、パーソナライズされたソリューションをローカルにカスタマイズできなかった。
提案するpFGLフレームワークであるFedSSPを提案する。
論文 参考訳(メタデータ) (2024-10-26T07:09:27Z) - Federated Hypergraph Learning with Local Differential Privacy: Toward Privacy-Aware Hypergraph Structure Completion [9.163655213173067]
FedHGLは、非結合性およびプライバシー制約のあるハイパーグラフパーティションに関する連邦ハイパーグラフ学習のための第一種フレームワークである。
We developed FedHGL, a first-of-in-kind framework for Federated hypergraph learning on disjoint and privacy-constrained hypergraph partitions。
論文 参考訳(メタデータ) (2024-08-09T16:31:41Z) - Federated Learning on Riemannian Manifolds with Differential Privacy [8.75592575216789]
悪意のある敵は、様々な手段を通じて機密情報を推測することができる。
本稿では,差分プライバシ(DP)技術に基づいて定義された汎用的なプライベートFLフレームワークを提案する。
我々は収束性を確立しながらプライバシー保証を分析する。
合成および実世界のデータセット上で数値シミュレーションを行い,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-15T12:32:20Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - On Privacy and Personalization in Cross-Silo Federated Learning [39.031422430404405]
本研究では,クロスサイロ学習(FL)における差分プライバシーの適用について考察する。
平均正規化マルチタスク学習(MR-MTL)がクロスサイロFLの強力なベースラインであることを示す。
平均推定問題に対するMR-MTLの理論的評価とともに,競合する手法の徹底的な実証研究を行った。
論文 参考訳(メタデータ) (2022-06-16T03:26:48Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。