論文の概要: Mitigating Cross-client GANs-based Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2307.13314v1
- Date: Tue, 25 Jul 2023 08:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:54:21.229597
- Title: Mitigating Cross-client GANs-based Attack in Federated Learning
- Title(参考訳): フェデレーション学習におけるクロスクライアントgansに基づく攻撃の軽減
- Authors: Hong Huang and Xinyu Lei and Tao Xiang
- Abstract要約: マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
- 参考スコア(独自算出の注目度): 78.06700142712353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning makes multimedia data (e.g., images) more attractive,
however, multimedia data is usually distributed and privacy sensitive. Multiple
distributed multimedia clients can resort to federated learning (FL) to jointly
learn a global shared model without requiring to share their private samples
with any third-party entities. In this paper, we show that FL suffers from the
cross-client generative adversarial networks (GANs)-based (C-GANs) attack, in
which a malicious client (i.e., adversary) can reconstruct samples with the
same distribution as the training samples from other clients (i.e., victims).
Since a benign client's data can be leaked to the adversary, this attack brings
the risk of local data leakage for clients in many security-critical FL
applications. Thus, we propose Fed-EDKD (i.e., Federated Ensemble Data-free
Knowledge Distillation) technique to improve the current popular FL schemes to
resist C-GANs attack. In Fed-EDKD, each client submits a local model to the
server for obtaining an ensemble global model. Then, to avoid model expansion,
Fed-EDKD adopts data-free knowledge distillation techniques to transfer
knowledge from the ensemble global model to a compressed model. By this way,
Fed-EDKD reduces the adversary's control capability over the global model, so
Fed-EDKD can effectively mitigate C-GANs attack. Finally, the experimental
results demonstrate that Fed-EDKD significantly mitigates C-GANs attack while
only incurring a slight accuracy degradation of FL.
- Abstract(参考訳): 機械学習はマルチメディアデータ(例えば画像)をより魅力的にするが、マルチメディアデータは通常分散され、プライバシーに敏感である。
複数の分散マルチメディアクライアントは、フェデレーションドラーニング(FL)を利用して、プライベートサンプルをサードパーティのエンティティと共有することなく、グローバルな共有モデルを共同で学習することができる。
本稿では,悪意のあるクライアント(すなわち,悪意のあるクライアント)が,他のクライアントからのトレーニングサンプル(すなわち被害者)と同じ分布でサンプルを再構築できる,クロスクライアント生成敵ネットワーク(gans)ベースのc-gans攻撃にflが苦しんでいることを示す。
この攻撃は、多くのセキュリティクリティカルなflアプリケーションにおいて、クライアントのローカルなデータ漏洩のリスクをもたらす。
そこで我々は,C-GAN攻撃に対する現在のFL方式を改善するために,Fed-EDKD(Federated Ensemble Data-free Knowledge Distillation)手法を提案する。
Fed-EDKDでは、各クライアントがローカルモデルをサーバに送信し、アンサンブルグローバルモデルを取得する。
次に,Fed-EDKDは,データフリーな知識蒸留技術を用いて,アンサンブルグローバルモデルから圧縮モデルへの知識伝達を行う。
このようにして、Fed-EDKDはグローバルモデルに対する敵の制御能力を低下させるので、Fed-EDKDはC-GANの攻撃を効果的に軽減できる。
実験の結果,Fed-EDKDはFLのわずかに精度が低下する一方,C-GANの攻撃を著しく軽減することが示された。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。