論文の概要: FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining
Competitive Performance in Federated Learning
- arxiv url: http://arxiv.org/abs/2111.08211v1
- Date: Tue, 16 Nov 2021 03:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 03:26:11.363419
- Title: FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining
Competitive Performance in Federated Learning
- Title(参考訳): FedCG:フェデレーション学習におけるプライバシ保護と競争性能維持のための条件付きGAN
- Authors: Yuezhou Wu, Yan Kang, Jiahuan Luo, Yuanqin He, Qiang Yang
- Abstract要約: フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに機械学習モデルを共同で構築できるようにすることによって、データのプライバシを保護することを目的としている。
最近の研究では、FLは勾配に基づくデータリカバリ攻撃に弱いことが示されている。
我々は,高レベルのプライバシ保護を実現するための新しいアンダーライン学習手法であるtextscFedCGを提案する。
- 参考スコア(独自算出の注目度): 7.9656550173284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) aims to protect data privacy by enabling clients to
collaboratively build machine learning models without sharing their private
data. However, recent works demonstrate that FL is vulnerable to gradient-based
data recovery attacks. Varieties of privacy-preserving technologies have been
leveraged to further enhance the privacy of FL. Nonetheless, they either are
computational or communication expensive (e.g., homomorphic encryption) or
suffer from precision loss (e.g., differential privacy). In this work, we
propose \textsc{FedCG}, a novel \underline{fed}erated learning method that
leverages \underline{c}onditional \underline{g}enerative adversarial networks
to achieve high-level privacy protection while still maintaining competitive
model performance. More specifically, \textsc{FedCG} decomposes each client's
local network into a private extractor and a public classifier and keeps the
extractor local to protect privacy. Instead of exposing extractors which is the
culprit of privacy leakage, \textsc{FedCG} shares clients' generators with the
server for aggregating common knowledge aiming to enhance the performance of
clients' local networks. Extensive experiments demonstrate that \textsc{FedCG}
can achieve competitive model performance compared with baseline FL methods,
and numerical privacy analysis shows that \textsc{FedCG} has high-level
privacy-preserving capability.
- Abstract(参考訳): フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに機械学習モデルを共同で構築できるようにすることによって、データのプライバシを保護することを目的としている。
しかし最近の研究では、FLは勾配に基づくデータリカバリ攻撃に弱いことが示されている。
FLのプライバシーをさらに強化するために、さまざまなプライバシー保護技術が活用されている。
それにもかかわらず、それらは計算コストか通信コスト(例えば、準同型暗号)か、または精度の喪失(例えば、微分プライバシー)に苦しんでいる。
本研究では, 競合モデルの性能を維持しつつ, 高レベルのプライバシ保護を実現するために, \underline{c}onditional \underline{g}enrative adversarial networkを活用する新しい学習手法である \textsc{FedCG} を提案する。
具体的には、‘textsc{FedCG} は各クライアントのローカルネットワークをプライベートな抽出器とパブリックな分類器に分解し、プライバシを保護するために抽出器をローカルに保持する。
プライバシリークの原因となる抽出器を公開する代わりに、 \textsc{fedcg} はクライアントのジェネレータをサーバと共有し、クライアントのローカルネットワークのパフォーマンス向上を目的とした共通知識を集約する。
大規模な実験により, 標準FL法と比較して, \textsc{FedCG} が競合モデルの性能を達成できることが示され, 数値プライバシー解析により, 高いレベルのプライバシ保存能力を有することが示された。
関連論文リスト
- Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving
Federated Learning with Byzantine Users [13.924829298309415]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。