論文の概要: MISA: Unveiling the Vulnerabilities in Split Federated Learning
- arxiv url: http://arxiv.org/abs/2312.11026v2
- Date: Tue, 19 Dec 2023 06:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:39:54.717103
- Title: MISA: Unveiling the Vulnerabilities in Split Federated Learning
- Title(参考訳): MISA: 分散フェデレーション学習における脆弱性の解明
- Authors: Wei Wan, Yuxuan Ning, Shengshan Hu, Lulu Xue, Minghui Li, Leo Yu
Zhang, and Hai Jin
- Abstract要約: textitFederated Learning (FL) と textitsplit Learning (SL) は近年,分散パラダイムの主流となっている。
MISAと呼ばれる新規な中毒発作を発症し, 上層モデルと下層モデルの両方に毒を投与し, 劇的な精度低下を引き起こした。
- 参考スコア(独自算出の注目度): 22.83568634599664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \textit{Federated learning} (FL) and \textit{split learning} (SL) are
prevailing distributed paradigms in recent years. They both enable shared
global model training while keeping data localized on users' devices. The
former excels in parallel execution capabilities, while the latter enjoys low
dependence on edge computing resources and strong privacy protection.
\textit{Split federated learning} (SFL) combines the strengths of both FL and
SL, making it one of the most popular distributed architectures. Furthermore, a
recent study has claimed that SFL exhibits robustness against poisoning
attacks, with a fivefold improvement compared to FL in terms of robustness.
In this paper, we present a novel poisoning attack known as MISA. It poisons
both the top and bottom models, causing a \textbf{\underline{misa}}lignment in
the global model, ultimately leading to a drastic accuracy collapse. This
attack unveils the vulnerabilities in SFL, challenging the conventional belief
that SFL is robust against poisoning attacks. Extensive experiments demonstrate
that our proposed MISA poses a significant threat to the availability of SFL,
underscoring the imperative for academia and industry to accord this matter due
attention.
- Abstract(参考訳): textit{federated learning} (fl) と \textit{split learning} (sl) は近年、分散パラダイムが普及している。
どちらも、ユーザのデバイスにデータをローカライズしながら、グローバルモデルトレーニングの共有を可能にする。
前者は並列実行能力に優れ、後者はエッジコンピューティングリソースへの依存度が低く、プライバシ保護が強い。
\textit{Split Federated Learning} (SFL)はFLとSLの長所を組み合わせたもので、最も人気のある分散アーキテクチャの1つである。
さらに、最近の研究では、SFLは毒性攻撃に対する堅牢性を示しており、FLと比較して堅牢性は5倍改善されていると主張している。
本稿では,ミサと呼ばれる新規な毒殺攻撃について述べる。
これは上層と下層の両方のモデルに毒を与え、大域モデルにおいて \textbf{\underline{misa}} の分解を引き起こし、最終的に劇的な精度の崩壊に繋がる。
この攻撃はSFLの脆弱性を明らかにし、SFLが毒殺攻撃に対して堅牢であるという従来の信念に挑戦する。
広範囲にわたる実験の結果,提案したMISAはSFLの有効性に重大な脅威をもたらすことが示され,学術・産業が留意すべき課題となっている。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - Security Analysis of SplitFed Learning [22.38766677215997]
Split Learning (SL) と Federated Learning (FL) は2つの著名な分散協調学習技術である。
近年の研究では、FLのセキュリティ脆弱性を毒殺攻撃の形で調査している。
本稿では,SplitFedの強力なモデル中毒攻撃に対する堅牢性について,初めて経験的解析を行った。
論文 参考訳(メタデータ) (2022-12-04T01:16:45Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - DeFL: Decentralized Weight Aggregation for Cross-silo Federated Learning [2.43923223501858]
フェデレートラーニング(FL)は、プライバシ保護機械学習(ML)の新たなパラダイムである。
クロスサイロFLのための分散重み集約フレームワークであるDeFLを提案する。
DeFLは各ノードの重みを集約することで中央サーバを排除し、現在のトレーニングラウンドのみの重みはすべてのノード間で維持および同期される。
論文 参考訳(メタデータ) (2022-08-01T13:36:49Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - FL-WBC: Enhancing Robustness against Model Poisoning Attacks in
Federated Learning from a Client Perspective [35.10520095377653]
Federated Learning(FL)は,中央サーバとエッジデバイス間の反復的な通信を通じてグローバルモデルをトレーニングする,人気のある分散学習フレームワークである。
近年の研究では、FLはモデル中毒攻撃に弱いことが示されている。
我々は、モデル中毒攻撃を軽減できるクライアントベースの防御システム、White Blood Cell for Federated Learning (FL-WBC)を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:13:35Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。