論文の概要: Data Leakage in Federated Averaging
- arxiv url: http://arxiv.org/abs/2206.12395v2
- Date: Mon, 27 Jun 2022 16:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 11:16:38.811282
- Title: Data Leakage in Federated Averaging
- Title(参考訳): フェデレート平均化におけるデータ漏洩
- Authors: Dimitar I. Dimitrov, Mislav Balunovi\'c, Nikola Konstantinov, Martin
Vechev
- Abstract要約: 最近の攻撃は、ユーザーデータをFedSGDのアップデートから復元できることを示し、プライバシーを侵害している。
これらの攻撃は、フェデレーション学習が一般的にFedAvgアルゴリズムを使用するため、実用的関連性に制限がある。
我々は、FedAvgの攻撃に成功している新しい最適化ベースの攻撃を提案する。
- 参考スコア(独自算出の注目度): 12.492818918629101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent attacks have shown that user data can be recovered from FedSGD
updates, thus breaking privacy. However, these attacks are of limited practical
relevance as federated learning typically uses the FedAvg algorithm. Compared
to FedSGD, recovering data from FedAvg updates is much harder as: (i) the
updates are computed at unobserved intermediate network weights, (ii) a large
number of batches are used, and (iii) labels and network weights vary
simultaneously across client steps. In this work, we propose a new
optimization-based attack which successfully attacks FedAvg by addressing the
above challenges. First, we solve the optimization problem using automatic
differentiation that forces a simulation of the client's update that generates
the unobserved parameters for the recovered labels and inputs to match the
received client update. Second, we address the large number of batches by
relating images from different epochs with a permutation invariant prior.
Third, we recover the labels by estimating the parameters of existing FedSGD
attacks at every FedAvg step. On the popular FEMNIST dataset, we demonstrate
that on average we successfully recover >45% of the client's images from
realistic FedAvg updates computed on 10 local epochs of 10 batches each with 5
images, compared to only <10% using the baseline. Our findings show many
real-world federated learning implementations based on FedAvg are vulnerable.
- Abstract(参考訳): 最近の攻撃は、ユーザーデータをFedSGDのアップデートから復元できることを示し、プライバシーを侵害している。
しかしながら、これらの攻撃はFedAvgアルゴリズムを使うフェデレーション学習の実践的関連性に制限がある。
FedSGDと比較すると、FedAvgの更新からデータを取得することは、次のように難しくなります。
i)更新は未観測の中間ネットワーク重みで計算される。
(ii)多数のバッチが使用され、
(iii)ラベルとネットワークの重み付けは、クライアントステップ間で同時に変化する。
そこで本研究では,FedAvgに対する新たな最適化ベースの攻撃を提案し,上記の課題に対処する。
まず、回収されたラベルと入力の未観測パラメータを生成し、受信したクライアント更新にマッチさせるクライアント更新のシミュレーションを強制する自動微分を用いて最適化問題を解く。
第2に,異なるエポックからの画像を予め置換不変量で関連付けることで,多数のバッチに対処する。
第三に、FedAvgの各ステップで既存のFedSGD攻撃のパラメータを推定することでラベルを復元する。
一般的なフェムニズムデータセットでは、ベースラインを使用した場合の10回のバッチで計算された10回のフェムニズム更新から、クライアントのイメージの45%以上が正常に回復できることが示されています。
その結果,fedavgに基づく実世界のフェデレーション学習実装の多くが脆弱であることが判明した。
関連論文リスト
- FedStale: leveraging stale client updates in federated learning [10.850101961203748]
フェデレーション学習アルゴリズムは、データの不均一性と部分的クライアント参加によって負の影響を受けます。
本稿は,一部のクライアントが他のクライアントよりもはるかに少ない場合,安定したレベルの更新を集約することで,トレーニングプロセスに有害な影響を与えることを示す。
私たちはFedStaleを紹介します。これは、参加するクライアントからの"フレッシュ"アップデートと、参加していないクライアントからの"ステア"アップデートの凸組み合わせによって、各ラウンドのグローバルモデルを更新する新しいアルゴリズムです。
論文 参考訳(メタデータ) (2024-05-07T10:11:42Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Leveraging Function Space Aggregation for Federated Learning at Scale [20.866482460590973]
クライアントが学習した関数に対する局所近似を集約するアルゴリズムであるFedFishを提案する。
我々はFedFishを、現実的で大規模なクロスデバイスベンチマークで評価する。
論文 参考訳(メタデータ) (2023-11-17T02:37:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - LOKI: Large-scale Data Reconstruction Attack against Federated Learning
through Model Manipulation [25.03733882637947]
従来の制限を克服し,アグリゲーションの匿名性を破る攻撃であるLOKIを導入する。
FedAVGと100のクライアントの集約により、以前の作業はMNIST、CIFAR-100、Tiny ImageNetのイメージの1%未満をリークすることができる。
LOKIは1回のトレーニングラウンドのみを使用して、すべてのデータサンプルの76~86%をリークすることができる。
論文 参考訳(メタデータ) (2023-03-21T23:29:35Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - FedAvg with Fine Tuning: Local Updates Lead to Representation Learning [54.65133770989836]
Federated Averaging (FedAvg)アルゴリズムは、クライアントノードでのいくつかのローカルな勾配更新と、サーバでのモデル平均更新の交互化で構成されている。
我々は、FedAvgの出力の一般化の背景には、クライアントのタスク間の共通データ表現を学習する能力があることを示す。
異種データを用いたフェデレーション画像分類におけるFedAvgの表現学習能力を示す実証的証拠も提供する。
論文 参考訳(メタデータ) (2022-05-27T00:55:24Z) - Optimizing Performance of Federated Person Re-identification:
Benchmarking and Analysis [14.545746907150436]
FedReIDは、新しい分散トレーニング手法であるフェデレーション学習を個人に対して実装する。
FedReIDは、クライアントから中央サーバへ、生のデータではなく、モデル更新を集約することで、データのプライバシを保存する。
論文 参考訳(メタデータ) (2022-05-24T15:20:32Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - TOFU: Towards Obfuscated Federated Updates by Encoding Weight Updates
into Gradients from Proxy Data [7.489265323050362]
本稿では,各クライアントの重み更新を勾配でエンコードするプロキシデータを生成する新しいアルゴリズムTOFUを提案する。
ToFUは、MNISTおよびCIFAR-10データセット上で、1%未満の精度低下と7%の精度低下で学習を可能にする。
これにより、標準的なフェデレート平均化アルゴリズムよりも4倍と6.6倍の通信効率で、フェデレートされた設定で精度をほぼフルにすることができる。
論文 参考訳(メタデータ) (2022-01-21T00:25:42Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。