論文の概要: Cocktail Party Attack: Breaking Aggregation-Based Privacy in Federated
Learning using Independent Component Analysis
- arxiv url: http://arxiv.org/abs/2209.05578v1
- Date: Mon, 12 Sep 2022 20:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:36:19.058397
- Title: Cocktail Party Attack: Breaking Aggregation-Based Privacy in Federated
Learning using Independent Component Analysis
- Title(参考訳): cocktail party attack: 独立成分分析を用いた連合学習における集約型プライバシの破断
- Authors: Sanjay Kariyappa, Chuan Guo, Kiwan Maeng, Wenjie Xiong, G. Edward Suh,
Moinuddin K Qureshi, Hsien-Hsin S. Lee
- Abstract要約: Federated Learning(FL)は、複数のデータ所有者が保持する分散データ上で、プライバシ保護機械学習を実行することを目的としている。
この目的のために、FLはデータ所有者に対して、ローカルでトレーニングを実行し、グラデーションアップデートを中央サーバと共有するように要求する。
それ自体によるアグリゲーションは、プライバシー保護を提供するものではないが、以前の研究では、バッチサイズが十分に大きい場合には十分であることを示した。
- 参考スコア(独自算出の注目度): 26.233860960220483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) aims to perform privacy-preserving machine learning
on distributed data held by multiple data owners. To this end, FL requires the
data owners to perform training locally and share the gradient updates (instead
of the private inputs) with the central server, which are then securely
aggregated over multiple data owners. Although aggregation by itself does not
provably offer privacy protection, prior work showed that it may suffice if the
batch size is sufficiently large. In this paper, we propose the Cocktail Party
Attack (CPA) that, contrary to prior belief, is able to recover the private
inputs from gradients aggregated over a very large batch size. CPA leverages
the crucial insight that aggregate gradients from a fully connected layer is a
linear combination of its inputs, which leads us to frame gradient inversion as
a blind source separation (BSS) problem (informally called the cocktail party
problem). We adapt independent component analysis (ICA)--a classic solution to
the BSS problem--to recover private inputs for fully-connected and
convolutional networks, and show that CPA significantly outperforms prior
gradient inversion attacks, scales to ImageNet-sized inputs, and works on large
batch sizes of up to 1024.
- Abstract(参考訳): Federated Learning (FL)は、複数のデータ所有者が保持する分散データ上で、プライバシ保護機械学習を実行することを目的としている。
この目的のために、FLはデータ所有者に対して、ローカルでトレーニングを行い、複数のデータ所有者に安全に集約された中央サーバと(プライベート入力の代わりに)勾配更新を共有することを要求する。
集約自体はプライバシ保護を提供していないが、前回の作業では、バッチサイズが十分に大きい場合に十分であることが示されている。
本稿では,従来の考え方とは対照的に,非常に大きなバッチサイズで集約された勾配からプライベート入力を回収できるカクテルパーティ攻撃(cpa)を提案する。
CPAは、完全に連結された層からの集約勾配は入力の線形結合であり、ブラインドソース分離(BSS)問題(一般にカクテルパーティー問題)としてフレーム勾配の反転をもたらすという決定的な洞察を利用する。
独立成分分析(ICA)は,完全接続ネットワークと畳み込みネットワークのプライベートな入力を復元するBSS問題の古典的な解であり,CPAが事前の勾配インバージョンアタックを著しく上回り,ImageNetサイズの入力にスケールし,最大1024個のバッチサイズで動作することを示す。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Perfect Gradient Inversion in Federated Learning: A New Paradigm from the Hidden Subset Sum Problem [21.546869377126125]
フェデレートラーニング(FL)は、複数の組織間で協調学習するための一般的なパラダイムとして登場した。
FLで共有される勾配情報を用いて入力再構成問題をHidden Subset Sum problemとして定式化する。
我々の分析は、なぜより大きなバッチサイズで経験的入力再構成攻撃が劣化したのかを洞察する。
論文 参考訳(メタデータ) (2024-09-21T23:01:33Z) - Privacy-Preserving Split Learning with Vision Transformers using Patch-Wise Random and Noisy CutMix [38.370923655357366]
コンピュータビジョンでは、視覚変換器(ViT)が、精度と堅牢性を改善するために畳み込みニューラルネットワーク(CNN)に取って代わりつつある。
分散学習(SL)は、サーバ側のリソースを活用してViTをトレーニングし、分散デバイスからのプライベートデータを活用する、実行可能なソリューションとして登場した。
本稿では,DP-CutMixSLと呼ばれる,スマッシュデータにガウスノイズを注入し,クライアント間でランダムに選択したスマッシュデータのパッチを混合する,新たなプライバシ保護型SLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T06:24:39Z) - Breaking Secure Aggregation: Label Leakage from Aggregated Gradients in Federated Learning [11.18348760596715]
Federated Learningは、勾配反転攻撃(GIA)下でのプライバシーの脆弱性を示す
セキュリティアグリゲーション(SA)を回避し、個々のクライアントのプライベートラベルを復元するために、ステルスなラベル推論攻撃を提案する。
我々の攻撃は、様々なデータセットやモデルアーキテクチャ上で、100%精度で大規模なラベル回復を実現する。
論文 参考訳(メタデータ) (2024-06-22T04:42:18Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。