論文の概要: Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility
- arxiv url: http://arxiv.org/abs/2510.26841v1
- Date: Thu, 30 Oct 2025 07:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.86393
- Title: Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility
- Title(参考訳): フェアネスとユーティリティのバランスをとるフェデレーション学習のための正確なターゲットプライバシ
- Authors: Kangkang Sun, Jun Wu, Minyi Guo, Jianhua Li, Jianwei Huang,
- Abstract要約: フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
- 参考スコア(独自算出の注目度): 28.676852732262407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training without data sharing, yet participants face a fundamental challenge, e.g., simultaneously ensuring fairness across demographic groups while protecting sensitive client data. We introduce a differentially private fair FL algorithm (\textit{FedPF}) that transforms this multi-objective optimization into a zero-sum game where fairness and privacy constraints compete against model utility. Our theoretical analysis reveals a surprising inverse relationship, i.e., stricter privacy protection fundamentally limits the system's ability to detect and correct demographic biases, creating an inherent tension between privacy and fairness. Counterintuitively, we prove that moderate fairness constraints initially improve model generalization before causing performance degradation, where a non-monotonic relationship that challenges conventional wisdom about fairness-utility tradeoffs. Experimental validation demonstrates up to 42.9 % discrimination reduction across three datasets while maintaining competitive accuracy, but more importantly, reveals that the privacy-fairness tension is unavoidable, i.e., achieving both objectives simultaneously requires carefully balanced compromises rather than optimization of either in isolation. The source code for our proposed algorithm is publicly accessible at https://github.com/szpsunkk/FedPF.
- Abstract(参考訳): フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にするが、参加者は基本的な課題に直面している。
我々は,この多目的最適化を,公平性とプライバシ制約がモデルユーティリティと競合するゼロサムゲームに変換する,微分プライベートフェアFLアルゴリズム(\textit{FedPF})を導入する。
我々の理論的分析は、驚くべき逆関係、すなわち、より厳格なプライバシー保護は、システムの人口統計バイアスを検出し修正する能力を根本的に制限し、プライバシーと公平性の間に固有の緊張を生じさせる。
非単調な関係で、フェアネスとユーティリティのトレードオフに関する従来の知恵に挑戦する。
実験による検証は、競争精度を維持しながら3つのデータセット間で最大42.9%の差別削減を実証するが、より重要なのは、プライバシーと公正性の緊張は避けられないこと、すなわち、両方の目標を同時に達成するためには、どちらを単独で最適化するのではなく、慎重にバランスのとれた妥協が必要であることを明らかにする。
提案アルゴリズムのソースコードはhttps://github.com/szpsunkk/FedPFで公開されている。
関連論文リスト
- RESFL: An Uncertainty-Aware Framework for Responsible Federated Learning by Balancing Privacy, Fairness and Utility in Autonomous Vehicles [6.3338980105224145]
既存のFLフレームワークは、プライバシ、公平性、堅牢性のバランスをとるのに苦労しているため、人口統計グループ間でのパフォーマンス格差が生じる。
この研究は、AVのためのFLベースのオブジェクト検出におけるプライバシと公正性のトレードオフについて検討し、両者を最適化する統合ソリューションであるRESFLを紹介した。
RESFLは、敵のプライバシーのゆがみと不確実性誘導された公正なアグリゲーションを取り入れている。
FACETデータセットとCARLAシミュレータ上でRESFLを評価し、様々な条件下で精度、公正性、プライバシーのレジリエンス、堅牢性を評価する。
論文 参考訳(メタデータ) (2025-03-20T15:46:03Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [9.864717082984109]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。