論文の概要: Scale-MIA: A Scalable Model Inversion Attack against Secure Federated Learning via Latent Space Reconstruction
- arxiv url: http://arxiv.org/abs/2311.05808v3
- Date: Wed, 27 Nov 2024 19:12:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:15:52.644587
- Title: Scale-MIA: A Scalable Model Inversion Attack against Secure Federated Learning via Latent Space Reconstruction
- Title(参考訳): Scale-MIA: 潜在空間再構成によるセキュアフェデレーション学習に対するスケーラブルモデルインバージョンアタック
- Authors: Shanghao Shi, Ning Wang, Yang Xiao, Chaoyu Zhang, Yi Shi, Y. Thomas Hou, Wenjing Lou,
- Abstract要約: フェデレーション学習は、参加者のデータプライバシを保護する能力で知られている。
最近出現したモデルインバージョン攻撃 (MIA) は、悪意のあるパラメータサーバが、モデルの更新から個々のユーザーのローカルデータサンプルを再構築できることを示した。
集約されたモデル更新から局所的なトレーニングサンプルを効率的かつ正確に再構築できる新しいMIAであるScale-MIAを提案する。
- 参考スコア(独自算出の注目度): 25.668769232903117
- License:
- Abstract: Federated learning is known for its capability to safeguard the participants' data privacy. However, recently emerged model inversion attacks (MIAs) have shown that a malicious parameter server can reconstruct individual users' local data samples from model updates. The state-of-the-art attacks either rely on computation-intensive iterative optimization methods to reconstruct each input batch, making scaling difficult, or involve the malicious parameter server adding extra modules before the global model architecture, rendering the attacks too conspicuous and easily detectable. To overcome these limitations, we propose Scale-MIA, a novel MIA capable of efficiently and accurately reconstructing local training samples from the aggregated model updates, even when the system is protected by a robust secure aggregation (SA) protocol. Scale-MIA utilizes the inner architecture of models and identifies the latent space as the critical layer for breaching privacy. Scale-MIA decomposes the complex reconstruction task into an innovative two-step process. The first step is to reconstruct the latent space representations (LSRs) from the aggregated model updates using a closed-form inversion mechanism, leveraging specially crafted linear layers. Then in the second step, the LSRs are fed into a fine-tuned generative decoder to reconstruct the whole input batch. We implemented Scale-MIA on commonly used machine learning models and conducted comprehensive experiments across various settings. The results demonstrate that Scale-MIA achieves excellent performance on different datasets, exhibiting high reconstruction rates, accuracy, and attack efficiency on a larger scale compared to state-of-the-art MIAs. Our code is available at https://github.com/unknown123489/Scale-MIA.
- Abstract(参考訳): フェデレーション学習は、参加者のデータプライバシを保護する能力で知られている。
しかし,最近出現したモデル逆転攻撃 (MIA) は,悪意のあるパラメータサーバがモデルの更新から個々のユーザのローカルデータサンプルを再構築可能であることを示した。
最先端の攻撃は、各入力バッチを再構築する計算集約的な反復最適化手法に頼るか、スケーリングを難しくするか、あるいはグローバルモデルアーキテクチャの前に追加モジュールを追加する悪意のあるパラメータサーバを巻き込み、攻撃を目立たず簡単に検出する。
このような制約を克服するため,我々は,堅牢なセキュアアグリゲーション(SA)プロトコルで保護された場合でも,集約されたモデル更新から局所的なトレーニングサンプルを効率的にかつ正確に再構築できる新しいMIAであるScale-MIAを提案する。
Scale-MIAはモデルの内部アーキテクチャを使用し、潜在空間をプライバシを侵害するための重要なレイヤとして識別する。
Scale-MIAは、複雑な再構築タスクを革新的な2段階のプロセスに分解する。
最初のステップは、特別に製作された線形層を利用する閉形式反転機構を用いて、集約されたモデル更新から潜在空間表現(LSR)を再構築することである。
次に、第2ステップでは、LSRを微調整された生成復号器に入力し、入力バッチ全体を再構築する。
一般的な機械学習モデルにスケール-MIAを実装し,様々な場面で総合的な実験を行った。
その結果、Scale-MIAは様々なデータセット上で優れた性能を示し、最先端MIAと比較して高い再構成率、精度、攻撃効率を示すことがわかった。
私たちのコードはhttps://github.com/unknown123489/Scale-MIAで利用可能です。
関連論文リスト
- IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition [13.783950035836593]
IncSARは、ターゲット認識における破滅的な忘れに対処するために設計された漸進的な学習フレームワークである。
SAR画像に固有のスペックルノイズを軽減するため、ニューラルネットワーク近似に基づくデノナイジングモジュールを用いる。
MSTAR、SAR-AIRcraft-1.0、OpenSARShipベンチマークデータセットの実験は、IncSARが最先端のアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-08T08:49:47Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Restore Anything Model via Efficient Degradation Adaptation [129.38475243424563]
RAMは、様々な劣化にまたがる固有の類似性を活用して、効率的で包括的な復元を可能にする統一された経路を取る。
RAMのSOTA性能はRAMのSOTA性能を確認し、トレーニング可能なパラメータで約82%、FLOPで約85%のモデルの複雑さを減少させる。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Reconstruction-based LSTM-Autoencoder for Anomaly-based DDoS Attack
Detection over Multivariate Time-Series Data [6.642599588462097]
DDoS(Distributed Denial-of-Service)攻撃は、ターゲットとするサーバやサービス、あるいはネットワークの通常のトラフィックを破壊しようとする悪意のある試みである。
従来の統計的および浅層機械学習技術は、浅層データと特徴選択に基づいて表面異常を検出することができるが、これらの手法は見えないDDoS攻撃を検出することはできない。
本稿では,LSTM-Autoencoder (LSTM-AE) と名づけられた再構築型異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-04-21T03:56:03Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Reconstructing Training Data with Informed Adversaries [30.138217209991826]
機械学習モデルへのアクセスを考えると、敵はモデルのトレーニングデータを再構築できるだろうか?
本研究は、この疑問を、学習データポイントの全てを知っている強力な情報提供者のレンズから研究する。
この厳密な脅威モデルにおいて、残りのデータポイントを再構築することは可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T09:19:25Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。