論文の概要: Fair Differentially Private Federated Learning Framework
- arxiv url: http://arxiv.org/abs/2305.13878v1
- Date: Tue, 23 May 2023 09:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 17:19:00.930515
- Title: Fair Differentially Private Federated Learning Framework
- Title(参考訳): 公正な個人的フェデレーション学習フレームワーク
- Authors: Ayush K. Varshney, Sonakshi Garg, Arka Ghosh, Sargam Gupta
- Abstract要約: Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) is a distributed machine learning strategy that
enables participants to collaborate and train a shared model without sharing
their individual datasets. Privacy and fairness are crucial considerations in
FL. While FL promotes privacy by minimizing the amount of user data stored on
central servers, it still poses privacy risks that need to be addressed.
Industry standards such as differential privacy, secure multi-party
computation, homomorphic encryption, and secure aggregation protocols are
followed to ensure privacy in FL. Fairness is also a critical issue in FL, as
models can inherit biases present in local datasets, leading to unfair
predictions. Balancing privacy and fairness in FL is a challenge, as privacy
requires protecting user data while fairness requires representative training
data. This paper presents a "Fair Differentially Private Federated Learning
Framework" that addresses the challenges of generating a fair global model
without validation data and creating a globally private differential model. The
framework employs clipping techniques for biased model updates and Gaussian
mechanisms for differential privacy. The paper also reviews related works on
privacy and fairness in FL, highlighting recent advancements and approaches to
mitigate bias and ensure privacy. Achieving privacy and fairness in FL requires
careful consideration of specific contexts and requirements, taking into
account the latest developments in industry standards and techniques.
- Abstract(参考訳): Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングするための分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
flは中央サーバに格納されるユーザデータの量を最小限にすることでプライバシを促進するが、それでも対処しなければならないプライバシのリスクが伴う。
FLのプライバシーを確保するために、ディファレンシャルプライバシ、セキュアなマルチパーティ計算、同型暗号化、セキュアなアグリゲーションプロトコルといった業界標準が従う。
モデルがローカルデータセットに存在するバイアスを継承し、不公平な予測につながるため、フェアネスもまたFLの重要な問題である。
プライバシーはユーザーデータを保護する必要があり、公平性は代表的なトレーニングデータを必要とする。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する「Fair Differentially Private Federated Learning Framework」を提案する。
このフレームワークは、偏りのあるモデル更新のためのクリッピング技術と微分プライバシーのためのガウス機構を使用している。
論文はまた、flのプライバシーと公平性に関する関連作品もレビューし、バイアスを緩和し、プライバシーを確保するための最近の進歩とアプローチを強調している。
FLにおけるプライバシーと公正性を達成するには、業界標準や技術の最新の発展を考慮して、特定のコンテキストと要求を慎重に考慮する必要がある。
関連論文リスト
- Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Privacy-preserving gradient-based fair federated learning [0.0]
フェデレートラーニング(FL)スキームは、複数の参加者が基盤となるデータを共有することなく、ニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,本研究の成果に基づいて,新しい,公正かつプライバシ保護のFLスキームを提案する。
論文 参考訳(メタデータ) (2024-07-18T19:56:39Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - PrivFairFL: Privacy-Preserving Group Fairness in Federated Learning [12.767527195281042]
フェデレートラーニング(FL)におけるグループフェアネスは、偏見を緩和するためには、本質的にすべてのクライアントのセンシティブな属性値を使用する必要があるため、難しい。
FLとセキュアマルチパーティ計算(MPC)と差分プライバシー(DP)を組み合わせることで、FLにおける公平性とプライバシの対立を解消できることを示す。
そこで本研究では,クロスデバイスFLにおけるグループフェアMLモデルを,完全かつ正式なプライバシ保証の下でトレーニングする方法を提案する。
論文 参考訳(メタデータ) (2022-05-23T19:26:12Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。