論文の概要: Data Leakage in Federated Averaging
- arxiv url: http://arxiv.org/abs/2206.12395v1
- Date: Fri, 24 Jun 2022 17:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 15:25:13.686751
- Title: Data Leakage in Federated Averaging
- Title(参考訳): フェデレート平均化におけるデータ漏洩
- Authors: Dimitar I. Dimitrov, Mislav Balunovi\'c, Nikola Konstantinov, Martin
Vechev
- Abstract要約: 最近の攻撃は、ユーザーデータをFedSGDのアップデートから再構築できることを示し、プライバシーを侵害している。
FedAvgの更新からデータを再構築するのは、FedSGDよりもはるかに難しいと一般的に受け入れられている。
我々は、FedAvgの攻撃に成功している新しい最適化ベースの攻撃を提案する。
- 参考スコア(独自算出の注目度): 12.492818918629101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent attacks have shown that user data can be reconstructed from FedSGD
updates, thus breaking privacy. However, these attacks are of limited practical
relevance as federated learning typically uses the FedAvg algorithm. It is
generally accepted that reconstructing data from FedAvg updates is much harder
than FedSGD as: (i) there are unobserved intermediate weight updates, (ii) the
order of inputs matters, and (iii) the order of labels changes every epoch. In
this work, we propose a new optimization-based attack which successfully
attacks FedAvg by addressing the above challenges. First, we solve the
optimization problem using automatic differentiation that forces a simulation
of the client's update for the reconstructed labels and inputs so as to match
the received client update. Second, we address the unknown input order by
treating images at different epochs as independent during optimization, while
relating them with a permutation invariant prior. Third, we reconstruct the
labels by estimating the parameters of existing FedSGD attacks at every FedAvg
step. On the popular FEMNIST dataset, we demonstrate that on average we
successfully reconstruct >45% of the client's images from realistic FedAvg
updates computed on 10 local epochs of 10 batches each with 5 images, compared
to only <10% using the baseline. These findings indicate that many real-world
federated learning implementations based on FedAvg are vulnerable.
- Abstract(参考訳): 最近の攻撃は、ユーザーデータをFedSGDのアップデートから再構築できることを示している。
しかしながら、これらの攻撃はFedAvgアルゴリズムを使うフェデレーション学習の実践的関連性に制限がある。
FedAvgの更新からデータを再構築するのは、次のようなFedSGDよりもはるかに難しいと一般的に受け入れられている。
(i)未観測の中間重量更新がある。
(二)入力の順序が問題であり、
(三)各時代ごとにラベルの順序が変わる。
そこで本研究では,FedAvgに対する新たな最適化ベースの攻撃を提案し,上記の課題に対処する。
まず,受信したクライアント更新に適合するように,再構成ラベルと入力に対するクライアント更新のシミュレーションを強制する自動微分を用いた最適化問題を解く。
第2に、異なるエポックの画像を最適化時に独立に扱うことにより、未知の入力順序に対処し、それ以前の置換不変量と関連付ける。
第三に、FedAvgの各ステップで既存のFedSGD攻撃のパラメータを推定することでラベルを再構築する。
一般的なfemnistデータセットでは,ベースラインを使用した場合の<10%>に比べて,10個のバッチの10個のローカルエポックで計算されたfedavg更新からクライアントのイメージの45%以上を,平均で再現することに成功した。
これらの結果から,FedAvgに基づく実世界のフェデレート学習実装の多くが脆弱であることが示唆された。
関連論文リスト
- FedStale: leveraging stale client updates in federated learning [10.850101961203748]
フェデレーション学習アルゴリズムは、データの不均一性と部分的クライアント参加によって負の影響を受けます。
本稿は,一部のクライアントが他のクライアントよりもはるかに少ない場合,安定したレベルの更新を集約することで,トレーニングプロセスに有害な影響を与えることを示す。
私たちはFedStaleを紹介します。これは、参加するクライアントからの"フレッシュ"アップデートと、参加していないクライアントからの"ステア"アップデートの凸組み合わせによって、各ラウンドのグローバルモデルを更新する新しいアルゴリズムです。
論文 参考訳(メタデータ) (2024-05-07T10:11:42Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Leveraging Function Space Aggregation for Federated Learning at Scale [20.866482460590973]
クライアントが学習した関数に対する局所近似を集約するアルゴリズムであるFedFishを提案する。
我々はFedFishを、現実的で大規模なクロスデバイスベンチマークで評価する。
論文 参考訳(メタデータ) (2023-11-17T02:37:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - LOKI: Large-scale Data Reconstruction Attack against Federated Learning
through Model Manipulation [25.03733882637947]
従来の制限を克服し,アグリゲーションの匿名性を破る攻撃であるLOKIを導入する。
FedAVGと100のクライアントの集約により、以前の作業はMNIST、CIFAR-100、Tiny ImageNetのイメージの1%未満をリークすることができる。
LOKIは1回のトレーニングラウンドのみを使用して、すべてのデータサンプルの76~86%をリークすることができる。
論文 参考訳(メタデータ) (2023-03-21T23:29:35Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - FedAvg with Fine Tuning: Local Updates Lead to Representation Learning [54.65133770989836]
Federated Averaging (FedAvg)アルゴリズムは、クライアントノードでのいくつかのローカルな勾配更新と、サーバでのモデル平均更新の交互化で構成されている。
我々は、FedAvgの出力の一般化の背景には、クライアントのタスク間の共通データ表現を学習する能力があることを示す。
異種データを用いたフェデレーション画像分類におけるFedAvgの表現学習能力を示す実証的証拠も提供する。
論文 参考訳(メタデータ) (2022-05-27T00:55:24Z) - Optimizing Performance of Federated Person Re-identification:
Benchmarking and Analysis [14.545746907150436]
FedReIDは、新しい分散トレーニング手法であるフェデレーション学習を個人に対して実装する。
FedReIDは、クライアントから中央サーバへ、生のデータではなく、モデル更新を集約することで、データのプライバシを保存する。
論文 参考訳(メタデータ) (2022-05-24T15:20:32Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - TOFU: Towards Obfuscated Federated Updates by Encoding Weight Updates
into Gradients from Proxy Data [7.489265323050362]
本稿では,各クライアントの重み更新を勾配でエンコードするプロキシデータを生成する新しいアルゴリズムTOFUを提案する。
ToFUは、MNISTおよびCIFAR-10データセット上で、1%未満の精度低下と7%の精度低下で学習を可能にする。
これにより、標準的なフェデレート平均化アルゴリズムよりも4倍と6.6倍の通信効率で、フェデレートされた設定で精度をほぼフルにすることができる。
論文 参考訳(メタデータ) (2022-01-21T00:25:42Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。