論文の概要: MISA: Unveiling the Vulnerabilities in Split Federated Learning
- arxiv url: http://arxiv.org/abs/2312.11026v2
- Date: Tue, 19 Dec 2023 06:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:39:54.717103
- Title: MISA: Unveiling the Vulnerabilities in Split Federated Learning
- Title(参考訳): MISA: 分散フェデレーション学習における脆弱性の解明
- Authors: Wei Wan, Yuxuan Ning, Shengshan Hu, Lulu Xue, Minghui Li, Leo Yu
Zhang, and Hai Jin
- Abstract要約: textitFederated Learning (FL) と textitsplit Learning (SL) は近年,分散パラダイムの主流となっている。
MISAと呼ばれる新規な中毒発作を発症し, 上層モデルと下層モデルの両方に毒を投与し, 劇的な精度低下を引き起こした。
- 参考スコア(独自算出の注目度): 22.83568634599664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \textit{Federated learning} (FL) and \textit{split learning} (SL) are
prevailing distributed paradigms in recent years. They both enable shared
global model training while keeping data localized on users' devices. The
former excels in parallel execution capabilities, while the latter enjoys low
dependence on edge computing resources and strong privacy protection.
\textit{Split federated learning} (SFL) combines the strengths of both FL and
SL, making it one of the most popular distributed architectures. Furthermore, a
recent study has claimed that SFL exhibits robustness against poisoning
attacks, with a fivefold improvement compared to FL in terms of robustness.
In this paper, we present a novel poisoning attack known as MISA. It poisons
both the top and bottom models, causing a \textbf{\underline{misa}}lignment in
the global model, ultimately leading to a drastic accuracy collapse. This
attack unveils the vulnerabilities in SFL, challenging the conventional belief
that SFL is robust against poisoning attacks. Extensive experiments demonstrate
that our proposed MISA poses a significant threat to the availability of SFL,
underscoring the imperative for academia and industry to accord this matter due
attention.
- Abstract(参考訳): textit{federated learning} (fl) と \textit{split learning} (sl) は近年、分散パラダイムが普及している。
どちらも、ユーザのデバイスにデータをローカライズしながら、グローバルモデルトレーニングの共有を可能にする。
前者は並列実行能力に優れ、後者はエッジコンピューティングリソースへの依存度が低く、プライバシ保護が強い。
\textit{Split Federated Learning} (SFL)はFLとSLの長所を組み合わせたもので、最も人気のある分散アーキテクチャの1つである。
さらに、最近の研究では、SFLは毒性攻撃に対する堅牢性を示しており、FLと比較して堅牢性は5倍改善されていると主張している。
本稿では,ミサと呼ばれる新規な毒殺攻撃について述べる。
これは上層と下層の両方のモデルに毒を与え、大域モデルにおいて \textbf{\underline{misa}} の分解を引き起こし、最終的に劇的な精度の崩壊に繋がる。
この攻撃はSFLの脆弱性を明らかにし、SFLが毒殺攻撃に対して堅牢であるという従来の信念に挑戦する。
広範囲にわたる実験の結果,提案したMISAはSFLの有効性に重大な脅威をもたらすことが示され,学術・産業が留意すべき課題となっている。
関連論文リスト
- NeFL: Nested Federated Learning for Heterogeneous Clients [48.160716521203256]
フェデレートラーニング(FL)は、分散ラーニングにおけるプライバシー維持のための有望なアプローチである。
FLのトレーニングパイプラインでは、遅いクライアント(すなわちストラグラー)がトレーニング時間を遅くし、パフォーマンスを低下させる。
奥行きと幅方向の両方のスケーリングを用いて,モデルをモデルに効率的に分割するフレームワークであるネスト付きフェデレーションラーニング(NeFL)を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:29:14Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Model Extraction Attacks on Split Federated Learning [36.81477031150716]
Federated Learning(FL)は、複数のクライアントとサーバを含む一般的な協調学習スキームである。
FLはクライアントのデータ保護に重点を置いているが、知的財産権(IP)の脅威に対して非常に脆弱であることが判明した。
本稿では、悪意のあるクライアントがサーバ側から勾配情報をクエリすることで、モデル抽出(ME)攻撃を起動する方法を示す。
論文 参考訳(メタデータ) (2023-03-13T20:21:51Z) - Security Analysis of SplitFed Learning [22.38766677215997]
Split Learning (SL) と Federated Learning (FL) は2つの著名な分散協調学習技術である。
近年の研究では、FLのセキュリティ脆弱性を毒殺攻撃の形で調査している。
本稿では,SplitFedの強力なモデル中毒攻撃に対する堅牢性について,初めて経験的解析を行った。
論文 参考訳(メタデータ) (2022-12-04T01:16:45Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - DeFL: Decentralized Weight Aggregation for Cross-silo Federated Learning [2.43923223501858]
フェデレートラーニング(FL)は、プライバシ保護機械学習(ML)の新たなパラダイムである。
クロスサイロFLのための分散重み集約フレームワークであるDeFLを提案する。
DeFLは各ノードの重みを集約することで中央サーバを排除し、現在のトレーニングラウンドのみの重みはすべてのノード間で維持および同期される。
論文 参考訳(メタデータ) (2022-08-01T13:36:49Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。