論文の概要: FinP: Fairness-in-Privacy in Federated Learning by Addressing Disparities in Privacy Risk
- arxiv url: http://arxiv.org/abs/2502.17748v1
- Date: Tue, 25 Feb 2025 00:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 18:40:46.035099
- Title: FinP: Fairness-in-Privacy in Federated Learning by Addressing Disparities in Privacy Risk
- Title(参考訳): FinP:プライバシリスクの格差に対処するフェデレーション学習の公正性
- Authors: Tianyu Zhao, Mahmoud Srewa, Salma Elmalaki,
- Abstract要約: FinPは、ソース推論攻撃に対する不適切な露出を軽減し、プライバシの公平性を達成するために設計されたフレームワークである。
FinPは、(1)グローバルモデルにおけるクライアントコントリビューションの不公平に対処するためのサーバ側適応アグリゲーション、(2)クライアント脆弱性を減らすためのクライアント側正規化という2つのアプローチを採用している。
- 参考スコア(独自算出の注目度): 7.752864126266439
- License:
- Abstract: Ensuring fairness in machine learning, particularly in human-centric applications, extends beyond algorithmic bias to encompass fairness in privacy, specifically the equitable distribution of privacy risk. This is critical in federated learning (FL), where decentralized data necessitates balanced privacy preservation across clients. We introduce FinP, a framework designed to achieve fairness in privacy by mitigating disproportionate exposure to source inference attacks (SIA). FinP employs a dual approach: (1) server-side adaptive aggregation to address unfairness in client contributions in global model, and (2) client-side regularization to reduce client vulnerability. This comprehensive strategy targets both the symptoms and root causes of privacy unfairness. Evaluated on the Human Activity Recognition (HAR) and CIFAR-10 datasets, FinP demonstrates ~20% improvement in fairness in privacy on HAR with minimal impact on model utility, and effectively mitigates SIA risks on CIFAR-10, showcasing its ability to provide fairness in privacy in FL systems without compromising performance.
- Abstract(参考訳): 機械学習における公正性、特に人間中心のアプリケーションにおける保証は、アルゴリズムバイアスを超えて、プライバシの公平性、特にプライバシーリスクの公平な分布を包含する。
これは、分散化されたデータがクライアント間でのプライバシー保護のバランスをとる必要がある、連邦学習(FL)において重要である。
我々は、ソース推論攻撃(SIA)に対する不適切な露出を軽減し、プライバシの公平性を達成するために設計されたフレームワークであるFinPを紹介する。
FinPは、(1)グローバルモデルにおけるクライアントコントリビューションの不公平に対処するためのサーバ側適応アグリゲーション、(2)クライアント脆弱性を減らすためのクライアント側正規化という2つのアプローチを採用している。
この包括的な戦略は、プライバシーの不公平の症状と根本原因の両方をターゲットにしている。
HAR(Human Activity Recognition)とCIFAR-10データセットに基づいて評価されたFinPは、モデルユーティリティに最小限の影響でHAR上のプライバシの公正性を約20%改善し、CIFAR-10におけるSIAリスクを効果的に軽減し、パフォーマンスを損なうことなくFLシステムのプライバシの公正性を提供する能力を示す。
関連論文リスト
- Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - PrivFairFL: Privacy-Preserving Group Fairness in Federated Learning [12.767527195281042]
フェデレートラーニング(FL)におけるグループフェアネスは、偏見を緩和するためには、本質的にすべてのクライアントのセンシティブな属性値を使用する必要があるため、難しい。
FLとセキュアマルチパーティ計算(MPC)と差分プライバシー(DP)を組み合わせることで、FLにおける公平性とプライバシの対立を解消できることを示す。
そこで本研究では,クロスデバイスFLにおけるグループフェアMLモデルを,完全かつ正式なプライバシ保証の下でトレーニングする方法を提案する。
論文 参考訳(メタデータ) (2022-05-23T19:26:12Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Improving Federated Learning Face Recognition via Privacy-Agnostic
Clusters [7.437386882362172]
この研究は、フェデレートされた顔認識を改善するためのフレームワークであるPrivacyFaceを提案する。
第一に, 局所的局所的クラスタリング機構は, 局所的なクラス中心から沈殿したクラスターを蒸留するために提案されている。
第二に、コンセンサス対応の認識損失は、その後、クライアント間のグローバルなコンセンサスを促進し、それによってより差別的な特徴が生まれる。
論文 参考訳(メタデータ) (2022-01-29T01:27:04Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。