論文の概要: Secure Aggregation in Federated Learning is not Private: Leaking User
Data at Large Scale through Model Modification
- arxiv url: http://arxiv.org/abs/2303.12233v1
- Date: Tue, 21 Mar 2023 23:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:57:49.909799
- Title: Secure Aggregation in Federated Learning is not Private: Leaking User
Data at Large Scale through Model Modification
- Title(参考訳): フェデレーション学習におけるセキュアアグリゲーションはプライベートではない:モデル修正による大規模ユーザデータ漏洩
- Authors: Joshua C. Zhao, Atul Sharma, Ahmed Roushdy Elkordy, Yahya H. Ezzeldin,
Salman Avestimehr, Saurabh Bagchi
- Abstract要約: 私たちは、大量のクライアントデータを直接リークする以前の制限を克服する攻撃であるMANDRAKEを紹介します。
多くのクライアントに集約することで、以前の作業は1%未満の画像しかリークできなかった。
同じ数の非ゼロパラメータを持ち、単一のトレーニングイテレーションのみを使用して、MANDRAKEは70~80%のデータサンプルをリークする。
- 参考スコア(独自算出の注目度): 18.34693758013391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security and privacy are important concerns in machine learning. End user
devices often contain a wealth of data and this information is sensitive and
should not be shared with servers or enterprises. As a result, federated
learning was introduced to enable machine learning over large decentralized
datasets while promising privacy by eliminating the need for data sharing.
However, prior work has shown that shared gradients often contain private
information and attackers can gain knowledge either through malicious
modification of the architecture and parameters or by using optimization to
approximate user data from the shared gradients. Despite this, most attacks
have so far been limited in scale of number of clients, especially failing when
client gradients are aggregated together using secure model aggregation. The
attacks that still function are strongly limited in the number of clients
attacked, amount of training samples they leak, or number of iterations they
take to be trained. In this work, we introduce MANDRAKE, an attack that
overcomes previous limitations to directly leak large amounts of client data
even under secure aggregation across large numbers of clients. Furthermore, we
break the anonymity of aggregation as the leaked data is identifiable and
directly tied back to the clients they come from. We show that by sending
clients customized convolutional parameters, the weight gradients of data
points between clients will remain separate through aggregation. With an
aggregation across many clients, prior work could only leak less than 1% of
images. With the same number of non-zero parameters, and using only a single
training iteration, MANDRAKE leaks 70-80% of data samples.
- Abstract(参考訳): セキュリティとプライバシは機械学習における重要な関心事である。
エンドユーザデバイスは、しばしば豊富なデータを含み、この情報は機密であり、サーバや企業と共有するべきではない。
その結果、フェデレーション学習を導入し、データ共有の必要性を排除し、プライバシーを約束しながら、大規模な分散データセット上で機械学習を可能にする。
しかし、以前の研究は共有勾配がしばしばプライベート情報を含んでいることを示しており、攻撃者はアーキテクチャやパラメータの悪意のある修正や、共有勾配からユーザデータを近似するための最適化によって知識を得ることができる。
それにもかかわらず、ほとんどの攻撃はクライアントの規模で制限されており、特に安全なモデルアグリゲーションを使用してクライアントの勾配を集約すると失敗する。
依然として機能する攻撃は、攻撃されたクライアントの数、リークしたトレーニングサンプルの量、トレーニングに要するイテレーションの数に強く制限されている。
本研究では,多数のクライアントにまたがるセキュアなアグリゲーションの下でも,大量のクライアントデータを直接リークする従来の制限を克服する攻撃であるMANDRAKEを紹介する。
さらに、漏洩したデータが識別可能で、そこから来るクライアントに直接結びついているため、アグリゲーションの匿名性を破ります。
クライアントがカスタマイズした畳み込みパラメータを送信することで、クライアント間のデータポイントの重み勾配は集約によって分離される。
多くのクライアントに集約することで、以前の作業は1%未満の画像しかリークできなかった。
同じ数の非ゼロパラメータを持ち、単一のトレーニングイテレーションのみを使用して、MANDRAKEは70~80%のデータサンプルをリークする。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Data Leakage in Federated Averaging [12.492818918629101]
最近の攻撃は、ユーザーデータをFedSGDのアップデートから復元できることを示し、プライバシーを侵害している。
これらの攻撃は、フェデレーション学習が一般的にFedAvgアルゴリズムを使用するため、実用的関連性に制限がある。
我々は、FedAvgの攻撃に成功している新しい最適化ベースの攻撃を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:51:02Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - TOFU: Towards Obfuscated Federated Updates by Encoding Weight Updates
into Gradients from Proxy Data [7.489265323050362]
本稿では,各クライアントの重み更新を勾配でエンコードするプロキシデータを生成する新しいアルゴリズムTOFUを提案する。
ToFUは、MNISTおよびCIFAR-10データセット上で、1%未満の精度低下と7%の精度低下で学習を可能にする。
これにより、標準的なフェデレート平均化アルゴリズムよりも4倍と6.6倍の通信効率で、フェデレートされた設定で精度をほぼフルにすることができる。
論文 参考訳(メタデータ) (2022-01-21T00:25:42Z) - When the Curious Abandon Honesty: Federated Learning Is Not Private [36.95590214441999]
フェデレーション・ラーニング(FL)では、データは機械学習モデルを共同で訓練しているときに個人デバイスを離れない。
我々は、アクティブで不正直な中央組織が受信した勾配からユーザデータを効率的に抽出できる新しいデータ再構成攻撃を示す。
論文 参考訳(メタデータ) (2021-12-06T10:37:03Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。