論文の概要: ResSFL: A Resistance Transfer Framework for Defending Model Inversion
Attack in Split Federated Learning
- arxiv url: http://arxiv.org/abs/2205.04007v1
- Date: Mon, 9 May 2022 02:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-11 00:11:19.928672
- Title: ResSFL: A Resistance Transfer Framework for Defending Model Inversion
Attack in Split Federated Learning
- Title(参考訳): ResSFL:分散学習におけるモデル反転攻撃防止のための抵抗伝達フレームワーク
- Authors: Jingtao Li, Adnan Siraj Rakin, Xing Chen, Zhezhi He, Deliang Fan,
Chaitali Chakrabarti
- Abstract要約: Split Federated Learning (SFL) は、複数のクライアントが生データを中央サーバに送信するのではなく、中間的なアクティベーション(フィーチャーマップ)を送信する分散トレーニングスキームである。
既存のSFL保護作業は推論のみを考慮しており、訓練中は攻撃に対処しない。
ResSFLは、トレーニング中にMI耐性を持つように設計された分散フェデレート学習フレームワークである。
- 参考スコア(独自算出の注目度): 34.891023451516304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to tackle Model Inversion (MI) attack on Split Federated
Learning (SFL). SFL is a recent distributed training scheme where multiple
clients send intermediate activations (i.e., feature map), instead of raw data,
to a central server. While such a scheme helps reduce the computational load at
the client end, it opens itself to reconstruction of raw data from intermediate
activation by the server. Existing works on protecting SFL only consider
inference and do not handle attacks during training. So we propose ResSFL, a
Split Federated Learning Framework that is designed to be MI-resistant during
training. It is based on deriving a resistant feature extractor via
attacker-aware training, and using this extractor to initialize the client-side
model prior to standard SFL training. Such a method helps in reducing the
computational complexity due to use of strong inversion model in client-side
adversarial training as well as vulnerability of attacks launched in early
training epochs. On CIFAR-100 dataset, our proposed framework successfully
mitigates MI attack on a VGG-11 model with a high reconstruction
Mean-Square-Error of 0.050 compared to 0.005 obtained by the baseline system.
The framework achieves 67.5% accuracy (only 1% accuracy drop) with very low
computation overhead. Code is released at:
https://github.com/zlijingtao/ResSFL.
- Abstract(参考訳): この研究は、SFL(Split Federated Learning)に対するモデル反転(MI)攻撃に取り組むことを目的としている。
SFLは、複数のクライアントが生データではなく中間的なアクティベーション(フィーチャーマップ)を中央サーバに送信する、最近の分散トレーニングスキームである。
このようなスキームはクライアント側の計算負荷を軽減するのに役立ちますが、サーバによる中間的なアクティベーションから生データの再構築にも役立ちます。
sflを保護する既存の作業は推論のみを考慮し、トレーニング中に攻撃を処理しない。
そこで我々は,MI耐性を持つ分散フェデレート学習フレームワークResSFLを提案する。
攻撃者対応トレーニングを通じて抵抗性特徴抽出器を導出し、この抽出器を用いて標準sflトレーニングに先立ってクライアント側モデルを初期化する。
このような手法は、クライアント側対角訓練における強力な反転モデルの使用による計算複雑性の低減と、初期の訓練時代の攻撃の脆弱性の軽減に役立つ。
CIFAR-100データセット上では,ベースラインシステムで得られた0.005と比較して,約0.050の高再構成平均角誤差を持つVGG-11モデルに対するMI攻撃を軽減した。
このフレームワークは非常に低い計算オーバーヘッドで67.5%の精度(1%の精度低下)を達成する。
コードはhttps://github.com/zlijingtao/ResSFL.comで公開されている。
関連論文リスト
- Speed Up Federated Learning in Heterogeneous Environment: A Dynamic
Tiering Approach [5.504000607257414]
フェデレートラーニング(FL)は、トレーニングデータを分散化してプライベートにしながら、モデルを協調的にトレーニングすることを可能にする。
FLを用いたモデルのトレーニングにおける重要な障害の1つは、様々なタスクサイズだけでなく、不均一な計算と通信能力を持つデバイスのリソース制約である。
本稿では、動的タイリングに基づくフェデレート学習(DTFL)システムを提案する。このシステムでは、遅いクライアントがモデルの一部を動的にサーバにオフロードし、リソース制約を緩和し、トレーニングを高速化する。
論文 参考訳(メタデータ) (2023-12-09T19:09:19Z) - When MiniBatch SGD Meets SplitFed Learning:Convergence Analysis and
Performance Evaluation [9.815046814597238]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
SplitFed Learning (SFL) は、クライアントデバイスにおける計算負荷を軽減するために、カット層でモデルを2つの部分に分割する手法である。
MiniBatch-SFLはMiniBatch SGDをSFLに組み込み、クライアントはFL方式でクライアントサイドモデルを訓練し、サーバはサーバサイドモデルを訓練する。
論文 参考訳(メタデータ) (2023-08-23T06:51:22Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Model Extraction Attacks on Split Federated Learning [36.81477031150716]
Federated Learning(FL)は、複数のクライアントとサーバを含む一般的な協調学習スキームである。
FLはクライアントのデータ保護に重点を置いているが、知的財産権(IP)の脅威に対して非常に脆弱であることが判明した。
本稿では、悪意のあるクライアントがサーバ側から勾配情報をクエリすることで、モデル抽出(ME)攻撃を起動する方法を示す。
論文 参考訳(メタデータ) (2023-03-13T20:21:51Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。