論文の概要: Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility
- arxiv url: http://arxiv.org/abs/2510.26841v1
- Date: Thu, 30 Oct 2025 07:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.86393
- Title: Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility
- Title(参考訳): フェアネスとユーティリティのバランスをとるフェデレーション学習のための正確なターゲットプライバシ
- Authors: Kangkang Sun, Jun Wu, Minyi Guo, Jianhua Li, Jianwei Huang,
- Abstract要約: フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
- 参考スコア(独自算出の注目度): 28.676852732262407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training without data sharing, yet participants face a fundamental challenge, e.g., simultaneously ensuring fairness across demographic groups while protecting sensitive client data. We introduce a differentially private fair FL algorithm (\textit{FedPF}) that transforms this multi-objective optimization into a zero-sum game where fairness and privacy constraints compete against model utility. Our theoretical analysis reveals a surprising inverse relationship, i.e., stricter privacy protection fundamentally limits the system's ability to detect and correct demographic biases, creating an inherent tension between privacy and fairness. Counterintuitively, we prove that moderate fairness constraints initially improve model generalization before causing performance degradation, where a non-monotonic relationship that challenges conventional wisdom about fairness-utility tradeoffs. Experimental validation demonstrates up to 42.9 % discrimination reduction across three datasets while maintaining competitive accuracy, but more importantly, reveals that the privacy-fairness tension is unavoidable, i.e., achieving both objectives simultaneously requires carefully balanced compromises rather than optimization of either in isolation. The source code for our proposed algorithm is publicly accessible at https://github.com/szpsunkk/FedPF.
- Abstract(参考訳): フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にするが、参加者は基本的な課題に直面している。
我々は,この多目的最適化を,公平性とプライバシ制約がモデルユーティリティと競合するゼロサムゲームに変換する,微分プライベートフェアFLアルゴリズム(\textit{FedPF})を導入する。
我々の理論的分析は、驚くべき逆関係、すなわち、より厳格なプライバシー保護は、システムの人口統計バイアスを検出し修正する能力を根本的に制限し、プライバシーと公平性の間に固有の緊張を生じさせる。
非単調な関係で、フェアネスとユーティリティのトレードオフに関する従来の知恵に挑戦する。
実験による検証は、競争精度を維持しながら3つのデータセット間で最大42.9%の差別削減を実証するが、より重要なのは、プライバシーと公正性の緊張は避けられないこと、すなわち、両方の目標を同時に達成するためには、どちらを単独で最適化するのではなく、慎重にバランスのとれた妥協が必要であることを明らかにする。
提案アルゴリズムのソースコードはhttps://github.com/szpsunkk/FedPFで公開されている。
関連論文リスト
- Fairness Meets Privacy: Integrating Differential Privacy and Demographic Parity in Multi-class Classification [6.28122931748758]
差分プライバシーは、公平性保証に最小限の影響を与える公平性向上パイプラインに統合可能であることを示す。
我々はDP2DPと呼ばれるポストプロセッシングアルゴリズムを設計し、人口統計と差分プライバシーの両方を強制する。
分析の結果,我々のアルゴリズムは,文献から得られる最良な非私的手法と基本的に同じ割合で,その人口的平等目標に向かって収束していることが判明した。
論文 参考訳(メタデータ) (2025-11-24T08:31:02Z) - Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data [84.37348569981307]
自己教師付き事前学習に基づく第一種能力推定モデルを提案する。
我々のモデルは一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-05T08:58:35Z) - RESFL: An Uncertainty-Aware Framework for Responsible Federated Learning by Balancing Privacy, Fairness and Utility in Autonomous Vehicles [6.3338980105224145]
既存のFLフレームワークは、プライバシ、公平性、堅牢性のバランスをとるのに苦労しているため、人口統計グループ間でのパフォーマンス格差が生じる。
この研究は、AVのためのFLベースのオブジェクト検出におけるプライバシと公正性のトレードオフについて検討し、両者を最適化する統合ソリューションであるRESFLを紹介した。
RESFLは、敵のプライバシーのゆがみと不確実性誘導された公正なアグリゲーションを取り入れている。
FACETデータセットとCARLAシミュレータ上でRESFLを評価し、様々な条件下で精度、公正性、プライバシーのレジリエンス、堅牢性を評価する。
論文 参考訳(メタデータ) (2025-03-20T15:46:03Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [9.864717082984109]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。