論文の概要: Model Extraction Attacks on Split Federated Learning
- arxiv url: http://arxiv.org/abs/2303.08581v1
- Date: Mon, 13 Mar 2023 20:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:51:03.404702
- Title: Model Extraction Attacks on Split Federated Learning
- Title(参考訳): スプリットフェデレーション学習におけるモデル抽出攻撃
- Authors: Jingtao Li, Adnan Siraj Rakin, Xing Chen, Li Yang, Zhezhi He, Deliang
Fan, Chaitali Chakrabarti
- Abstract要約: Federated Learning(FL)は、複数のクライアントとサーバを含む一般的な協調学習スキームである。
FLはクライアントのデータ保護に重点を置いているが、知的財産権(IP)の脅威に対して非常に脆弱であることが判明した。
本稿では、悪意のあるクライアントがサーバ側から勾配情報をクエリすることで、モデル抽出(ME)攻撃を起動する方法を示す。
- 参考スコア(独自算出の注目度): 36.81477031150716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a popular collaborative learning scheme involving
multiple clients and a server. FL focuses on protecting clients' data but turns
out to be highly vulnerable to Intellectual Property (IP) threats. Since FL
periodically collects and distributes the model parameters, a free-rider can
download the latest model and thus steal model IP. Split Federated Learning
(SFL), a recent variant of FL that supports training with resource-constrained
clients, splits the model into two, giving one part of the model to clients
(client-side model), and the remaining part to the server (server-side model).
Thus SFL prevents model leakage by design. Moreover, by blocking prediction
queries, it can be made resistant to advanced IP threats such as traditional
Model Extraction (ME) attacks. While SFL is better than FL in terms of
providing IP protection, it is still vulnerable. In this paper, we expose the
vulnerability of SFL and show how malicious clients can launch ME attacks by
querying the gradient information from the server side. We propose five
variants of ME attack which differs in the gradient usage as well as in the
data assumptions. We show that under practical cases, the proposed ME attacks
work exceptionally well for SFL. For instance, when the server-side model has
five layers, our proposed ME attack can achieve over 90% accuracy with less
than 2% accuracy degradation with VGG-11 on CIFAR-10.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントとサーバを含む一般的な協調学習スキームである。
flはクライアントのデータ保護に焦点を当てているが、知的財産(ip)の脅威に非常に弱いことが判明した。
FLは定期的にモデルパラメータを収集し配布するため、フリーライダーは最新のモデルをダウンロードしてモデルIPを盗むことができる。
リソース制約のあるクライアントとのトレーニングをサポートする最近のFLの亜種であるSplit Federated Learning (SFL)は、モデルを2つに分割し、モデルの一部をクライアント(クライアント側モデル)に、残りの部分をサーバ側モデル(サーバ側モデル)に分割する。
これにより、SFLは設計によるモデル漏洩を防止する。
さらに、予測クエリをブロックすることにより、従来のモデル抽出(ME)攻撃のような高度なIP脅威に耐性を持たせることができる。
SFLはIP保護に関してFLより優れているが、それでも脆弱である。
本稿では,SFLの脆弱性を明らかにし,サーバ側から勾配情報を問い合わせることで,悪意のあるクライアントがME攻撃を行う方法を示す。
本研究では,データ仮定と同様に勾配使用量が異なる5種類のme攻撃を提案する。
実例では,提案したME攻撃はSFLでは極めて良好であることがわかった。
例えば、サーバサイドモデルに5つの層がある場合、提案したME攻撃は、CIFAR-10上のVGG-11で精度が2%未満の精度で90%以上の精度を達成できる。
関連論文リスト
- FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - When MiniBatch SGD Meets SplitFed Learning:Convergence Analysis and
Performance Evaluation [9.815046814597238]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
SplitFed Learning (SFL) は、クライアントデバイスにおける計算負荷を軽減するために、カット層でモデルを2つの部分に分割する手法である。
MiniBatch-SFLはMiniBatch SGDをSFLに組み込み、クライアントはFL方式でクライアントサイドモデルを訓練し、サーバはサーバサイドモデルを訓練する。
論文 参考訳(メタデータ) (2023-08-23T06:51:22Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - ResSFL: A Resistance Transfer Framework for Defending Model Inversion
Attack in Split Federated Learning [34.891023451516304]
Split Federated Learning (SFL) は、複数のクライアントが生データを中央サーバに送信するのではなく、中間的なアクティベーション(フィーチャーマップ)を送信する分散トレーニングスキームである。
既存のSFL保護作業は推論のみを考慮しており、訓練中は攻撃に対処しない。
ResSFLは、トレーニング中にMI耐性を持つように設計された分散フェデレート学習フレームワークである。
論文 参考訳(メタデータ) (2022-05-09T02:23:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。