論文の概要: First Provable Guarantees for Practical Private FL: Beyond Restrictive Assumptions
- arxiv url: http://arxiv.org/abs/2512.21521v1
- Date: Thu, 25 Dec 2025 06:05:15 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:56:28.521113
- Title: First Provable Guarantees for Practical Private FL: Beyond Restrictive Assumptions
- Title(参考訳): プロプライエタリなFLに初の保証-規制緩和を乗り越える
- Authors: Egor Shulgin, Grigory Malinovsky, Sarit Khirirat, Peter Richtárik,
- Abstract要約: Fed-$-NormECは、標準仮定の下で証明可能な収束とDP保証を提供する最初の微分プライベートFLフレームワークである。
Fed-$-NormEはローカルアップデートを統合し、サーバとクライアントを分離し、重要な部分的なクライアント参加をステップ化する。
- 参考スコア(独自算出の注目度): 52.82254388526969
- License:
- Abstract: Federated Learning (FL) enables collaborative training on decentralized data. Differential privacy (DP) is crucial for FL, but current private methods often rely on unrealistic assumptions (e.g., bounded gradients or heterogeneity), hindering practical application. Existing works that relax these assumptions typically neglect practical FL features, including multiple local updates and partial client participation. We introduce Fed-$α$-NormEC, the first differentially private FL framework providing provable convergence and DP guarantees under standard assumptions while fully supporting these practical features. Fed-$α$-NormE integrates local updates (full and incremental gradient steps), separate server and client stepsizes, and, crucially, partial client participation, which is essential for real-world deployment and vital for privacy amplification. Our theoretical guarantees are corroborated by experiments on private deep learning tasks.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データの協調トレーニングを可能にする。
差分プライバシー(DP)はFLにとって重要であるが、現在のプライベートメソッドは非現実的な仮定(例えば、有界勾配や不均一性)に依存しており、実用的な応用を妨げる。
これらの仮定を緩和する既存の作業は、通常、複数のローカルアップデートや部分的なクライアント参加を含む、実用的なFL機能を無視します。
提案するFed-α$-NormECは,実証可能な収束とDP保証を提供する,最初の微分プライベートなFLフレームワークである。
Fed-α$-NormEは、ローカルアップデート(フルとインクリメンタルのグラデーションステップ)、サーバとクライアントの分離ステップ、そして重要なことに、実際のデプロイメントには不可欠な部分的なクライアント参加を統合し、プライバシの増幅に不可欠です。
我々の理論的保証は、プライベートなディープラーニングタスクの実験によって裏付けられている。
関連論文リスト
- Whom to Trust? Adaptive Collaboration in Personalized Federated Learning [11.923664505655026]
共同作業における適応性ときめ細かな信頼は、個々の事例のレベルで、フェデレートされた半教師付き学習において達成可能であることを示す。
FEDMOSAICは、顧客による個人別合意と信頼度に基づいて、その損失と擬似ラベルへの貢献を重み付けするパーソナライズされた協調学習手法である。
論文 参考訳(メタデータ) (2025-06-30T20:53:01Z) - Federated Unlearning Made Practical: Seamless Integration via Negated Pseudo-Gradients [12.27654537722943]
本稿では, Pseudo-gradients Updates for Federated Unlearning (PUF) を忘れることを利用した新しい手法を提案する。
最先端のメカニズムとは異なり、PUFはFLとシームレスに統合され、標準のFLラウンドを超える計算と通信のオーバーヘッドを発生させることなく、同時に非学習要求をサポートする。
論文 参考訳(メタデータ) (2025-04-08T09:05:33Z) - FLea: Addressing Data Scarcity and Label Skew in Federated Learning via Privacy-preserving Feature Augmentation [15.298650496155508]
フェデレートラーニング(FL)は、ローカルデータを中央サーバに転送することなく、多数のエッジデバイスに分散したデータを活用することによって、モデル開発を可能にする。
既存のFLメソッドは、デバイス間の不足やラベルスキュードデータを扱う際に問題に直面し、結果としてローカルモデルが過度に適合し、ドリフトする。
我々は、以下のキーコンポーネントを組み込んだ textitFLea という先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-04T20:24:09Z) - Learning to Specialize: Joint Gating-Expert Training for Adaptive MoEs in Decentralized Settings [41.98633628526484]
Mixture-of-Experts (MoEs)は、コンポーネントのサブセットを動的に活性化することでスケーラビリティを実現する。
推論コストとデータヘテロジニティにより、ゲーティング関数と専門家の協調トレーニングがドメイン固有の専門知識を割り当てる方法について検討する。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Privacy Preserving Bayesian Federated Learning in Heterogeneous Settings [20.33482170846688]
本稿では,大規模なローカルデータセットがなくても,カスタマイズされたローカルベイズモデルに基づく統合学習フレームワークを提案する。
ネットワークの機能的(アウトプット)空間における事前情報を用いて、異種クライアント間のコラボレーションを容易にする。
標準FLデータセットを用いた実験により、同種および異種両方の設定において、我々のアプローチが強いベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-13T17:55:30Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。