論文の概要: Security Analysis of SplitFed Learning
- arxiv url: http://arxiv.org/abs/2212.01716v1
- Date: Sun, 4 Dec 2022 01:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:02:49.248534
- Title: Security Analysis of SplitFed Learning
- Title(参考訳): SplitFed Learning のセキュリティ分析
- Authors: Momin Ahmad Khan, Virat Shejwalkar, Amir Houmansadr, Fatima Muhammad
Anwar
- Abstract要約: Split Learning (SL) と Federated Learning (FL) は2つの著名な分散協調学習技術である。
近年の研究では、FLのセキュリティ脆弱性を毒殺攻撃の形で調査している。
本稿では,SplitFedの強力なモデル中毒攻撃に対する堅牢性について,初めて経験的解析を行った。
- 参考スコア(独自算出の注目度): 22.38766677215997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Learning (SL) and Federated Learning (FL) are two prominent distributed
collaborative learning techniques that maintain data privacy by allowing
clients to never share their private data with other clients and servers, and
fined extensive IoT applications in smart healthcare, smart cities, and smart
industry. Prior work has extensively explored the security vulnerabilities of
FL in the form of poisoning attacks. To mitigate the effect of these attacks,
several defenses have also been proposed. Recently, a hybrid of both learning
techniques has emerged (commonly known as SplitFed) that capitalizes on their
advantages (fast training) and eliminates their intrinsic disadvantages
(centralized model updates). In this paper, we perform the first ever empirical
analysis of SplitFed's robustness to strong model poisoning attacks. We observe
that the model updates in SplitFed have significantly smaller dimensionality as
compared to FL that is known to have the curse of dimensionality. We show that
large models that have higher dimensionality are more susceptible to privacy
and security attacks, whereas the clients in SplitFed do not have the complete
model and have lower dimensionality, making them more robust to existing model
poisoning attacks. Our results show that the accuracy reduction due to the
model poisoning attack is 5x lower for SplitFed compared to FL.
- Abstract(参考訳): Split Learning(SL)とFederated Learning(FL)は、クライアントが他のクライアントやサーバとプライベートデータを共有しないことを許し、スマートヘルスケア、スマートシティ、スマート産業における広範なIoTアプリケーションに罰金を課すことによって、データのプライバシを維持する2つの著名な分散コラボレーティブ学習テクニックである。
以前の研究は、毒殺攻撃の形でflのセキュリティ脆弱性を広範囲に調査してきた。
これらの攻撃の効果を軽減するため、いくつかの防衛策も提案されている。
最近、両方の学習テクニックのハイブリッド(一般にSplitFedと呼ばれる)が出現し、その利点(高速トレーニング)を活かし、本質的な欠点(集中型モデル更新)を排除している。
本稿では,SplitFedの強力なモデル中毒攻撃に対する堅牢性に関する実験的検討を行った。
SplitFedのモデル更新は,次元性の呪いが知られているFLに比べて,次元性が非常に小さいことが観察された。
高次元の大規模モデルはプライバシやセキュリティ攻撃の影響を受けやすいが、splitfedのクライアントは完全なモデルを持っておらず、低次元であり、既存のモデル中毒攻撃に対してより堅牢であることを示している。
FLと比較して, SplitFedでは, モデル中毒による精度低下が5倍低かった。
関連論文リスト
- Poisoning with A Pill: Circumventing Detection in Federated Learning [33.915489514978084]
本稿では,FLにおける検出に対する既存のFL中毒攻撃の有効性とステルス性を高めるために,汎用的かつ攻撃に依存しない拡張手法を提案する。
具体的には、FLトレーニング中に、戦略的にピルを構築、生成、注入する3段階の方法論を用いており、それに従ってピル構築、ピル中毒およびピル注入と命名されている。
論文 参考訳(メタデータ) (2024-07-22T05:34:47Z) - Resilience in Online Federated Learning: Mitigating Model-Poisoning Attacks via Partial Sharing [6.957420925496431]
フェデレートラーニング(FL)は、プライバシを損なうことなく、分散データ上で機械学習モデルをトレーニングすることを可能にする。
FLは、悪意のあるクライアントがローカルモデルを改ざんしてグローバルモデルを操作するような、モデル中毒攻撃に弱い。
本研究では,この攻撃に対する部分共有オンラインFL(PSO-Fed)アルゴリズムのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-03-19T19:15:38Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Deep Leakage from Model in Federated Learning [6.001369927772649]
モデル重みの伝達がクライアントのプライベートなローカルデータをリークする可能性を示す2つの新しいフレームワークを提案する。
また,提案攻撃に対する防御策を2つ導入し,その防御効果を評価した。
論文 参考訳(メタデータ) (2022-06-10T05:56:00Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。