論文の概要: FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining
Competitive Performance in Federated Learning
- arxiv url: http://arxiv.org/abs/2111.08211v1
- Date: Tue, 16 Nov 2021 03:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 03:26:11.363419
- Title: FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining
Competitive Performance in Federated Learning
- Title(参考訳): FedCG:フェデレーション学習におけるプライバシ保護と競争性能維持のための条件付きGAN
- Authors: Yuezhou Wu, Yan Kang, Jiahuan Luo, Yuanqin He, Qiang Yang
- Abstract要約: フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに機械学習モデルを共同で構築できるようにすることによって、データのプライバシを保護することを目的としている。
最近の研究では、FLは勾配に基づくデータリカバリ攻撃に弱いことが示されている。
我々は,高レベルのプライバシ保護を実現するための新しいアンダーライン学習手法であるtextscFedCGを提案する。
- 参考スコア(独自算出の注目度): 7.9656550173284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) aims to protect data privacy by enabling clients to
collaboratively build machine learning models without sharing their private
data. However, recent works demonstrate that FL is vulnerable to gradient-based
data recovery attacks. Varieties of privacy-preserving technologies have been
leveraged to further enhance the privacy of FL. Nonetheless, they either are
computational or communication expensive (e.g., homomorphic encryption) or
suffer from precision loss (e.g., differential privacy). In this work, we
propose \textsc{FedCG}, a novel \underline{fed}erated learning method that
leverages \underline{c}onditional \underline{g}enerative adversarial networks
to achieve high-level privacy protection while still maintaining competitive
model performance. More specifically, \textsc{FedCG} decomposes each client's
local network into a private extractor and a public classifier and keeps the
extractor local to protect privacy. Instead of exposing extractors which is the
culprit of privacy leakage, \textsc{FedCG} shares clients' generators with the
server for aggregating common knowledge aiming to enhance the performance of
clients' local networks. Extensive experiments demonstrate that \textsc{FedCG}
can achieve competitive model performance compared with baseline FL methods,
and numerical privacy analysis shows that \textsc{FedCG} has high-level
privacy-preserving capability.
- Abstract(参考訳): フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに機械学習モデルを共同で構築できるようにすることによって、データのプライバシを保護することを目的としている。
しかし最近の研究では、FLは勾配に基づくデータリカバリ攻撃に弱いことが示されている。
FLのプライバシーをさらに強化するために、さまざまなプライバシー保護技術が活用されている。
それにもかかわらず、それらは計算コストか通信コスト(例えば、準同型暗号)か、または精度の喪失(例えば、微分プライバシー)に苦しんでいる。
本研究では, 競合モデルの性能を維持しつつ, 高レベルのプライバシ保護を実現するために, \underline{c}onditional \underline{g}enrative adversarial networkを活用する新しい学習手法である \textsc{FedCG} を提案する。
具体的には、‘textsc{FedCG} は各クライアントのローカルネットワークをプライベートな抽出器とパブリックな分類器に分解し、プライバシを保護するために抽出器をローカルに保持する。
プライバシリークの原因となる抽出器を公開する代わりに、 \textsc{fedcg} はクライアントのジェネレータをサーバと共有し、クライアントのローカルネットワークのパフォーマンス向上を目的とした共通知識を集約する。
大規模な実験により, 標準FL法と比較して, \textsc{FedCG} が競合モデルの性能を達成できることが示され, 数値プライバシー解析により, 高いレベルのプライバシ保存能力を有することが示された。
関連論文リスト
- A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - Privacy-Preserving Federated Learning with Consistency via Knowledge Distillation Using Conditional Generator [19.00239208095762]
モデルパラメータや更新のみを共有し、プライベートデータをローカルに保持する分散学習フレームワークとして、フェデレートラーニング(FL)が人気を集めています。
高い競争性能と高レベルのプライバシ保護を備えた新しいFL法であるFedMD-CGを提案する。
我々は、FedMD-CGの優位性を検証するために、様々な画像分類タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-09-11T02:36:36Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。