論文の概要: Scale-MIA: A Scalable Model Inversion Attack against Secure Federated
Learning via Latent Space Reconstruction
- arxiv url: http://arxiv.org/abs/2311.05808v1
- Date: Fri, 10 Nov 2023 00:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 16:08:40.278529
- Title: Scale-MIA: A Scalable Model Inversion Attack against Secure Federated
Learning via Latent Space Reconstruction
- Title(参考訳): Scale-MIA:潜時空間再構成によるセキュアフェデレーション学習に対するスケーラブルモデル反転攻撃
- Authors: Shanghao Shi, Ning Wang, Yang Xiao, Chaoyu Zhang, Yi Shi, Y.Thomas
Hou, Wenjing Lou
- Abstract要約: フェデレーション学習は、参加者のデータプライバシを保護する能力で知られている。
最近出現したモデル反転攻撃 (MIA) は、悪意のあるパラメータサーバが、モデルの更新によって個々のユーザーのローカルデータサンプルを再構築できることを示した。
本報告では,クライアントのトレーニングサンプルを,集約された更新から効率よく,かつ正確に回収できる新しいMIAであるScale-MIAを提案する。
- 参考スコア(独自算出の注目度): 26.9559481641707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is known for its capability to safeguard participants'
data privacy. However, recently emerged model inversion attacks (MIAs) have
shown that a malicious parameter server can reconstruct individual users' local
data samples through model updates. The state-of-the-art attacks either rely on
computation-intensive search-based optimization processes to recover each input
batch, making scaling difficult, or they involve the malicious parameter server
adding extra modules before the global model architecture, rendering the
attacks too conspicuous and easily detectable.
To overcome these limitations, we propose Scale-MIA, a novel MIA capable of
efficiently and accurately recovering training samples of clients from the
aggregated updates, even when the system is under the protection of a robust
secure aggregation protocol. Unlike existing approaches treating models as
black boxes, Scale-MIA recognizes the importance of the intricate architecture
and inner workings of machine learning models. It identifies the latent space
as the critical layer for breaching privacy and decomposes the complex recovery
task into an innovative two-step process to reduce computation complexity. The
first step involves reconstructing the latent space representations (LSRs) from
the aggregated model updates using a closed-form inversion mechanism,
leveraging specially crafted adversarial linear layers. In the second step, the
whole input batches are recovered from the LSRs by feeding them into a
fine-tuned generative decoder.
We implemented Scale-MIA on multiple commonly used machine learning models
and conducted comprehensive experiments across various settings. The results
demonstrate that Scale-MIA achieves excellent recovery performance on different
datasets, exhibiting high reconstruction rates, accuracy, and attack efficiency
on a larger scale compared to state-of-the-art MIAs.
- Abstract(参考訳): フェデレーション学習は参加者のデータプライバシーを保護する能力で知られている。
しかし,最近出現したモデル逆転攻撃 (MIA) は,悪意のあるパラメータサーバが,モデル更新を通じて個々のユーザのローカルデータサンプルを再構築可能であることを示した。
最先端の攻撃は、計算集約的な検索ベースの最適化プロセスに依存して、各入力バッチを回復し、スケーリングを難しくするか、あるいはグローバルモデルアーキテクチャの前に追加モジュールを追加する悪意のあるパラメータサーバを巻き込み、攻撃を目立たず簡単に検出する。
このような制限を克服するために,堅牢なセキュアなアグリゲーションプロトコルの保護下にある場合でも,クライアントのトレーニングサンプルを集約された更新から効率的にかつ正確に回収できる新しいMIAであるScale-MIAを提案する。
モデルをブラックボックスとして扱う既存のアプローチとは異なり、Scale-MIAは複雑なアーキテクチャと機械学習モデルの内部動作の重要性を認識している。
潜在空間をプライバシを侵害する重要なレイヤとして識別し、複雑なリカバリタスクを革新的な2段階のプロセスに分解し、計算の複雑さを低減します。
最初のステップは、閉じた形式反転機構を使用して集約されたモデル更新から潜在空間表現(LSR)を再構築し、特別に製作された逆線形層を活用することである。
第2のステップでは、入力バッチ全体は、細調整された生成デコーダに入力することでLSRから回収される。
複数の一般的な機械学習モデルにスケール-MIAを実装し、様々な設定で包括的な実験を行った。
その結果、スケール・ミアは様々なデータセットにおいて優れたリカバリ性能を達成し、最先端miasと比較して高い再構成率、正確性、攻撃効率を示すことが示された。
関連論文リスト
- Simplifying CLIP: Unleashing the Power of Large-Scale Models on Consumer-level Computers [3.2492319522383717]
Contrastive Language-Image Pre-Training (CLIP) はその優れたゼロショット性能と下流タスクへの優れた転送性のために注目を集めている。
しかし、そのような大規模モデルのトレーニングは通常、実際の計算とストレージを必要とするため、一般ユーザにとって消費者レベルのコンピュータでは障壁となる。
論文 参考訳(メタデータ) (2024-11-22T08:17:46Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Reconstruction-based LSTM-Autoencoder for Anomaly-based DDoS Attack
Detection over Multivariate Time-Series Data [6.642599588462097]
DDoS(Distributed Denial-of-Service)攻撃は、ターゲットとするサーバやサービス、あるいはネットワークの通常のトラフィックを破壊しようとする悪意のある試みである。
従来の統計的および浅層機械学習技術は、浅層データと特徴選択に基づいて表面異常を検出することができるが、これらの手法は見えないDDoS攻撃を検出することはできない。
本稿では,LSTM-Autoencoder (LSTM-AE) と名づけられた再構築型異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-04-21T03:56:03Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Can recurrent neural networks learn process model structure? [0.2580765958706854]
本稿では,適合度,精度,一般化のために,変分に基づく再サンプリングとカスタムメトリクスを組み合わせた評価フレームワークを提案する。
LSTMは、単純化されたプロセスデータであっても、プロセスモデル構造を学ぶのに苦労する可能性があることを確認します。
また,トレーニング中にLSTMで見られる情報量が減少すると,一般化や精度の低下が生じた。
論文 参考訳(メタデータ) (2022-12-13T08:40:01Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。