論文の概要: Surrogate Model Extension (SME): A Fast and Accurate Weight Update
Attack on Federated Learning
- arxiv url: http://arxiv.org/abs/2306.00127v1
- Date: Wed, 31 May 2023 19:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 19:47:32.973404
- Title: Surrogate Model Extension (SME): A Fast and Accurate Weight Update
Attack on Federated Learning
- Title(参考訳): 代理モデル拡張(SME):フェデレートラーニングにおける高速かつ高精度な重み更新攻撃
- Authors: Junyi Zhu, Ruicong Yao, Matthew B. Blaschko
- Abstract要約: Federated Learning (FL) は、重み更新に対する勾配反転攻撃に対して、ある程度の保護を提供することができる。
FLの重み更新に勾配反転攻撃を拡張するための原理的手法を提案する。
本手法は,共通FLシナリオにおけるSOTAベースラインよりも100倍高速に動作可能である。
- 参考スコア(独自算出の注目度): 26.49051626493952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Federated Learning (FL) and many other distributed training frameworks,
collaborators can hold their private data locally and only share the network
weights trained with the local data after multiple iterations. Gradient
inversion is a family of privacy attacks that recovers data from its generated
gradients. Seemingly, FL can provide a degree of protection against gradient
inversion attacks on weight updates, since the gradient of a single step is
concealed by the accumulation of gradients over multiple local iterations. In
this work, we propose a principled way to extend gradient inversion attacks to
weight updates in FL, thereby better exposing weaknesses in the presumed
privacy protection inherent in FL. In particular, we propose a surrogate model
method based on the characteristic of two-dimensional gradient flow and
low-rank property of local updates. Our method largely boosts the ability of
gradient inversion attacks on weight updates containing many iterations and
achieves state-of-the-art (SOTA) performance. Additionally, our method runs up
to $100\times$ faster than the SOTA baseline in the common FL scenario. Our
work re-evaluates and highlights the privacy risk of sharing network weights.
Our code is available at
https://github.com/JunyiZhu-AI/surrogate_model_extension.
- Abstract(参考訳): Federated Learning(FL)やその他の多くの分散トレーニングフレームワークでは、コラボレータはプライベートデータをローカルに保持し、複数のイテレーション後にローカルデータでトレーニングされたネットワーク重みを共有することができる。
gradient inversionは、生成した勾配からデータを復元するプライバシ攻撃のファミリーである。
flは、単一のステップの勾配が複数の局所的なイテレーションの勾配の蓄積によって隠蔽されるため、重み更新に対する勾配反転攻撃に対するある程度の保護を提供することができる。
本研究では,flに内在するプライバシ保護の弱さを明らかにするため,flの重み付け更新に対する勾配反転攻撃を原則的に拡張する手法を提案する。
特に,2次元勾配流の特性と局所更新の低ランク特性に基づく代理モデルを提案する。
提案手法は,多くの繰り返しを含む重み更新に対する勾配反転攻撃の能力を大幅に向上させ,SOTA(State-of-the-art)性能を実現する。
さらに,本手法は共通FLシナリオにおいて,SOTAベースラインよりも100\times$高速で動作する。
私たちの仕事は、ネットワーク重みを共有するプライバシーリスクを再評価し、強調します。
私たちのコードはhttps://github.com/JunyiZhu-AI/surrogate_model_extensionで利用可能です。
関連論文リスト
- Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Coding for Straggler Mitigation in Federated Learning [86.98177890676077]
提案手法は,プライバシと勾配コードを保存するために1回パディングを組み合わせることで,ストラグラーに対する抵抗性を向上する。
提案手法は,MNISTデータセットとFashion-MNISTデータセットのトレーニングスピードアップ係数が6.6ドルと9.2ドルであり,それぞれ95%と85%であることを示す。
論文 参考訳(メタデータ) (2021-09-30T15:53:35Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。