論文の概要: Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix
- arxiv url: http://arxiv.org/abs/2106.06089v1
- Date: Thu, 10 Jun 2021 23:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 05:49:14.604316
- Title: Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix
- Title(参考訳): 勾配分散:ユーザ参加者行列の再構成による連合学習におけるプライバシの破断
- Authors: Maximilian Lam, Gu-Yeon Wei, David Brooks, Vijay Janapa Reddi, Michael
Mitzenmacher
- Abstract要約: 連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
- 参考スコア(独自算出の注目度): 12.678765681171022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that aggregated model updates in federated learning may be insecure.
An untrusted central server may disaggregate user updates from sums of updates
across participants given repeated observations, enabling the server to recover
privileged information about individual users' private training data via
traditional gradient inference attacks. Our method revolves around
reconstructing participant information (e.g: which rounds of training users
participated in) from aggregated model updates by leveraging summary
information from device analytics commonly used to monitor, debug, and manage
federated learning systems. Our attack is parallelizable and we successfully
disaggregate user updates on settings with up to thousands of participants. We
quantitatively and qualitatively demonstrate significant improvements in the
capability of various inference attacks on the disaggregated updates. Our
attack enables the attribution of learned properties to individual users,
violating anonymity, and shows that a determined central server may undermine
the secure aggregation protocol to break individual users' data privacy in
federated learning.
- Abstract(参考訳): フェデレーション学習におけるモデル更新の集約は,安全性に欠ける可能性がある。
信頼できない中央サーバは、参加者間の更新の合計からユーザ更新を分解し、従来の勾配推論攻撃によって個々のユーザのプライベートトレーニングデータに関する特権情報を取得することができる。
本手法は,連合学習システムの監視,デバッグ,管理に一般的に使用されるデバイスアナリティクスの要約情報を活用し,集約モデル更新から参加者情報(例えば,ユーザが参加するトレーニングラウンド)を再構築する。
攻撃は並列化可能で、最大数千人の参加者でユーザー更新を無効にしました。
我々は,分散した更新に対する様々な推論攻撃の能力について,定量的,質的に有意な改善を示す。
この攻撃により,個々のユーザに対する学習属性の帰属が可能となり,匿名性に違反し,決定された中央サーバが,個々のユーザのデータのプライバシを損なうセキュアアグリゲーションプロトコルを損なう可能性がある。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - zPROBE: Zero Peek Robustness Checks for Federated Learning [18.84828158927185]
プライバシ保護フェデレーション学習は、複数のユーザが中央サーバの調整でモデルを共同でトレーニングすることを可能にする。
個々のアップデートを非公開にしておくことで、悪意のあるユーザはビザンチン攻撃を実行し、検出されることなく精度を低下させることができる。
当社のフレームワークであるzPROBEは、ビザンチンのレジリエンスとセキュアな連邦学習を可能にする。
論文 参考訳(メタデータ) (2022-06-24T06:20:37Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Fidel: Reconstructing Private Training Samples from Weight Updates in
Federated Learning [0.0]
フェデレーション学習における新しい攻撃手法を評価し,第1次ディセンス層攻撃(Fidel)と名付けた。
完全接続されたニューラルネットワークを用いて、クライアントのモデル更新から30個のプライベートデータサンプルのうち20個を平均して復元する方法を示す。
論文 参考訳(メタデータ) (2021-01-01T04:00:23Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。