論文の概要: Tackling Privacy Heterogeneity in Differentially Private Federated Learning
- arxiv url: http://arxiv.org/abs/2602.22633v1
- Date: Thu, 26 Feb 2026 05:20:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.539843
- Title: Tackling Privacy Heterogeneity in Differentially Private Federated Learning
- Title(参考訳): 差分私的フェデレーション学習におけるプライバシーの不均一性に対処する
- Authors: Ruichen Xu, Ying-Jun Angela Zhang, Jianwei Huang,
- Abstract要約: 微分プライベート・フェデレーション・ラーニング(DP-FL)におけるプライバシ・アウェア・クライアント選択に関する最初の体系的研究について述べる。
本稿では,選択確率を適応的に調整し,トレーニングエラーを最小限に抑える,凸最適化問題として定式化されたプライバシ対応クライアント選択戦略を提案する。
提案手法は,ベンチマークデータセットにおけるテスト精度を最大10%向上させる。
- 参考スコア(独自算出の注目度): 33.2985262258717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private federated learning (DP-FL) enables clients to collaboratively train machine learning models while preserving the privacy of their local data. However, most existing DP-FL approaches assume that all clients share a uniform privacy budget, an assumption that does not hold in real-world scenarios where privacy requirements vary widely. This privacy heterogeneity poses a significant challenge: conventional client selection strategies, which typically rely on data quantity, cannot distinguish between clients providing high-quality updates and those introducing substantial noise due to strict privacy constraints. To address this gap, we present the first systematic study of privacy-aware client selection in DP-FL. We establish a theoretical foundation by deriving a convergence analysis that quantifies the impact of privacy heterogeneity on training error. Building on this analysis, we propose a privacy-aware client selection strategy, formulated as a convex optimization problem, that adaptively adjusts selection probabilities to minimize training error. Extensive experiments on benchmark datasets demonstrate that our approach achieves up to a 10% improvement in test accuracy on CIFAR-10 compared to existing baselines under heterogeneous privacy budgets. These results highlight the importance of incorporating privacy heterogeneity into client selection for practical and effective federated learning.
- Abstract(参考訳): 微分プライベートフェデレーション学習(DP-FL)は、クライアントがローカルデータのプライバシを保持しながら、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、既存のDP-FLアプローチのほとんどは、すべてのクライアントが均一なプライバシー予算を共有していると仮定している。
データ量に依存する従来のクライアント選択戦略では、高品質な更新を提供するクライアントと、厳格なプライバシ制約による実質的なノイズを伴わないクライアントを区別できない。
このギャップに対処するため,DP-FLにおけるプライバシに配慮したクライアント選択の体系的研究を行った。
我々は、プライバシーの不均一性がトレーニングエラーに与える影響を定量化する収束分析を導出した理論的基盤を確立する。
この分析に基づいて,コンベックス最適化問題として定式化され,選択確率を適応的に調整し,トレーニングエラーを最小限に抑えるプライバシ対応クライアント選択戦略を提案する。
ベンチマークデータセットの大規模な実験により,CIFAR-10におけるテスト精度は,異種プライバシー予算下での既存のベースラインと比較して最大10%向上した。
これらの結果は、実践的で効果的なフェデレーション学習のためのクライアント選択にプライバシーの不均一性を取り入れることの重要性を強調している。
関連論文リスト
- Optimal Client Sampling in Federated Learning with Client-Level Heterogeneous Differential Privacy [8.683908900328237]
プライバシー予算に基づいてクライアントをグループに分割し,各グループ内のクライアントレベルのDPを実現し,プライバシー予算の無駄を削減するGDPFedを提案する。
また、GDPFed$+$を導入することで、不要なノイズを排除し、グループごとのクライアントサンプリング比率を最適化します。
論文 参考訳(メタデータ) (2025-05-19T18:55:34Z) - Federated Learning With Individualized Privacy Through Client Sampling [2.0432201743624456]
フェデレートラーニング(FL)における個別微分プライバシー(IDP)を実現するための適応的手法を提案する。
我々は、不均一なプライバシー予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
論文 参考訳(メタデータ) (2025-01-29T13:11:21Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Cross-silo Federated Learning with Record-level Personalized Differential Privacy [10.921330805109845]
フェデレートラーニング(FL)は、トレーニングプロセス中にクライアントのコントリビューションを保護することによって、クライアント側データのプライバシ保護を改善するための一般的なアプローチとして登場した。
既存のソリューションは通常、すべてのレコードに対して均一なプライバシ予算を仮定し、各レコードのプライバシ要件を満たすには不十分な、ワンサイズのすべてのソリューションを提供する。
クライアントレベルの一様サンプリングと非一様レコードレベルのサンプリングを併用した2段階のハイブリッドサンプリング手法を用いて,プライバシー要件を満たす新しいフレームワークであるtextitrPDP-FL を考案した。
論文 参考訳(メタデータ) (2024-01-29T16:01:46Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。