論文の概要: FedFDP: Fairness-Aware Federated Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2402.16028v2
- Date: Mon, 20 May 2024 04:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 23:10:31.941038
- Title: FedFDP: Fairness-Aware Federated Learning with Differential Privacy
- Title(参考訳): FedFDP: 差別化プライバシによる公正なフェデレーション学習
- Authors: Xinpeng Ling, Jie Fu, Kuncan Wang, Huifa Li, Tong Cheng, Zhili Chen,
- Abstract要約: Federated Learning(FL)は、データサイロの課題を克服する新しい機械学習パラダイムであり、大きな注目を集めている。
フェアネスを考慮したフェデレーション学習アルゴリズムFedFairを提案する。
FedFDPでは、公正度を調整しながら差分プライバシーを実現するために、公平性を考慮したクリッピング戦略を考案する。
我々は,FedFairとFedFDPが,モデル性能と公平性の観点から,最先端のソリューションを著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 21.55903748640851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a new machine learning paradigm to overcome the challenge of data silos and has garnered significant attention. However, through our observations, a globally effective trained model may performance disparities in different clients. This implies that the jointly trained models by clients may lead to unfair outcomes. On the other hand, relevant studies indicate that the transmission of gradients or models in federated learning can also give rise to privacy leakage issues, such as membership inference attacks. To address the first issue mentioned above, we propose a fairness-aware federated learning algorithm, termed FedFair. Building upon FedFair, we introduce privacy protection to form the FedFDP algorithm to address the second issue mentioned above. In FedFDP, we devise a fairness-aware clipping strategy to achieve differential privacy while adjusting fairness. Additionally, for the extra uploaded loss values, we present an adaptive clipping approach to maximize utility. Furthermore, we theoretically prove that our algorithm converges and ensures differential privacy. Lastly, extensive experimental results demonstrate that FedFair and FedFDP significantly outperform state-of-the-art solutions in terms of model performance and fairness. Code and data is accessible at https://anonymous.4open.science/r/FedFDP-5607.
- Abstract(参考訳): Federated Learning(FL)は、データサイロの課題を克服する新しい機械学習パラダイムであり、大きな注目を集めている。
しかし、我々の観察により、グローバルに効果的に訓練されたモデルは、異なるクライアントでパフォーマンスの相違が生じる可能性がある。
これは、クライアントが共同でトレーニングしたモデルが不公平な結果をもたらす可能性を示唆している。
一方、関連する研究では、連合学習における勾配やモデルの伝達が、メンバーシップ推論攻撃などのプライバシー漏洩問題を引き起こす可能性があることを示唆している。
上記の課題に対処するため,FedFairと呼ばれる公平性を考慮したフェデレーション学習アルゴリズムを提案する。
FedFairに基づいて、上記の2つ目の問題に対処するため、FedFDPアルゴリズムを形成するためにプライバシ保護を導入します。
FedFDPでは、公正度を調整しながら差分プライバシーを実現するために、公平性を考慮したクリッピング戦略を考案する。
さらに, 付加的なアップロード損失値に対して, 有効性を最大化するための適応的クリッピング手法を提案する。
さらに、我々のアルゴリズムが収束し、差分プライバシーを保証することを理論的に証明する。
最後に、FedFairとFedFDPは、モデル性能と公正性の観点から、最先端のソリューションを著しく上回っていることを示す。
コードとデータはhttps://anonymous.4open.science/r/FedFDP-5607でアクセスできる。
関連論文リスト
- Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence [22.946928984205588]
ディファレンシャル・プライベート・フェデレーション・ラーニング(DP-FL)は協調モデルトレーニングにおいて有望な手法である。
本稿では,任意のランダム化機構を普遍的に調和させる最初のDP-FLフレームワーク(UDP-FL)を提案する。
その結果,UDP-FLは異なる推論攻撃に対して強い耐性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-20T00:11:59Z) - Navigating Heterogeneity and Privacy in One-Shot Federated Learning with Diffusion Models [6.921070916461661]
フェデレートラーニング(FL)は、複数のクライアントがデータのプライバシを保持しながらモデルをまとめてトレーニングすることを可能にする。
ワンショットフェデレーション学習は、コミュニケーションラウンドの削減、効率の向上、盗聴攻撃に対するセキュリティ向上によるソリューションとして登場した。
論文 参考訳(メタデータ) (2024-05-02T17:26:52Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Enforcing fairness in private federated learning via the modified method
of differential multipliers [1.3381749415517021]
差分プライバシーによるフェデレーション学習、あるいはプライベートフェデレーション学習は、ユーザのプライバシを尊重しながら機械学習モデルをトレーニングする戦略を提供する。
本稿では,ユーザのデータがデバイスを離れないプライベートフェデレーション学習において,グループフェアネスを強制するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-17T15:28:47Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。