論文の概要: Random Gradient Masking as a Defensive Measure to Deep Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2408.08430v1
- Date: Thu, 15 Aug 2024 21:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 17:09:56.046003
- Title: Random Gradient Masking as a Defensive Measure to Deep Leakage in Federated Learning
- Title(参考訳): フェデレートラーニングにおける深層漏洩に対する防御尺度としてのランダム勾配マスキング
- Authors: Joon Kim, Sejin Park,
- Abstract要約: DLGに対する防御法として, マスキング, クリップ, プルーニング, ノージングの4つの方法の有効性を実証的に評価した。
その結果, マスキングとクリッピングはDLGを効果的に防ぐのに十分な情報を隠蔽しながら, 性能の劣化をほとんど示さないことが明らかとなった。
- 参考スコア(独自算出の注目度): 3.015622397986615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning(FL), in theory, preserves privacy of individual clients' data while producing quality machine learning models. However, attacks such as Deep Leakage from Gradients(DLG) severely question the practicality of FL. In this paper, we empirically evaluate the efficacy of four defensive methods against DLG: Masking, Clipping, Pruning, and Noising. Masking, while only previously studied as a way to compress information during parameter transfer, shows surprisingly robust defensive utility when compared to the other three established methods. Our experimentation is two-fold. We first evaluate the minimum hyperparameter threshold for each method across MNIST, CIFAR-10, and lfw datasets. Then, we train FL clients with each method and their minimum threshold values to investigate the trade-off between DLG defense and training performance. Results reveal that Masking and Clipping show near to none degradation in performance while obfuscating enough information to effectively defend against DLG.
- Abstract(参考訳): フェデレートラーニング(FL)は、理論的には、高品質な機械学習モデルを作成しながら、個々のクライアントデータのプライバシを保存する。
しかし、DLG(Deep Leakage from Gradients)のような攻撃はFLの実用性に深刻な疑問を呈している。
本稿では, DLGに対する防御方法として, マスキング, クリッピング, プルーニング, ノージングの4つの方法の有効性を実証的に評価した。
マスキングは以前パラメータ転送中に情報を圧縮する方法としてのみ研究されたが、他の3つの確立された方法と比較して驚くほど堅牢な防御効果を示した。
私たちの実験は2倍です。
まず,MNIST,CIFAR-10,lfwデータセットにまたがる各手法の最小パラメータ閾値を評価する。
そして,各手法と最低しきい値を用いてFLクライアントを訓練し,DLG防御とトレーニング性能のトレードオフを検討する。
その結果, マスキングとクリッピングはDLGを効果的に防ぐのに十分な情報を隠蔽しながら, 性能の劣化をほとんど示さないことが明らかとなった。
関連論文リスト
- Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A Knowledge Distillation-Based Backdoor Attack in Federated Learning [9.22321085045949]
Adversarial Knowledge Distillation (ADVKD) は、Federated Learning (FL) における知識蒸留とバックドアアタックを組み合わせた手法である。
以上の結果から,ADVKDは攻撃成功率が高いだけでなく,他の手法が失敗しても防御を回避できることが示唆された。
論文 参考訳(メタデータ) (2022-08-12T08:52:56Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - LoMar: A Local Defense Against Poisoning Attack on Federated Learning [22.798328772844805]
フェデレートラーニング(FL)は、高効率な分散機械学習フレームワークを提供する。
近年の研究では、このアプローチはリモートクライアント側からの攻撃に影響を受けやすいことが示されている。
局所悪性因子(LoMar)と呼ばれる2相防御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-08T18:28:31Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。