論文の概要: EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection
- arxiv url: http://arxiv.org/abs/2405.13080v1
- Date: Tue, 21 May 2024 06:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 04:22:11.872330
- Title: EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection
- Title(参考訳): Eminspector: 埋め込み検査によるフェデレーション自己監視学習におけるバックドアアタックの回避
- Authors: Yuwen Qian, Shuchi Wu, Kang Wei, Ming Ding, Di Xiao, Tao Xiang, Chuan Ma, Song Guo,
- Abstract要約: フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
- 参考スコア(独自算出の注目度): 53.25863925815954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated self-supervised learning (FSSL) has recently emerged as a promising paradigm that enables the exploitation of clients' vast amounts of unlabeled data while preserving data privacy. While FSSL offers advantages, its susceptibility to backdoor attacks, a concern identified in traditional federated supervised learning (FSL), has not been investigated. To fill the research gap, we undertake a comprehensive investigation into a backdoor attack paradigm, where unscrupulous clients conspire to manipulate the global model, revealing the vulnerability of FSSL to such attacks. In FSL, backdoor attacks typically build a direct association between the backdoor trigger and the target label. In contrast, in FSSL, backdoor attacks aim to alter the global model's representation for images containing the attacker's specified trigger pattern in favor of the attacker's intended target class, which is less straightforward. In this sense, we demonstrate that existing defenses are insufficient to mitigate the investigated backdoor attacks in FSSL, thus finding an effective defense mechanism is urgent. To tackle this issue, we dive into the fundamental mechanism of backdoor attacks on FSSL, proposing the Embedding Inspector (EmInspector) that detects malicious clients by inspecting the embedding space of local models. In particular, EmInspector assesses the similarity of embeddings from different local models using a small set of inspection images (e.g., ten images of CIFAR100) without specific requirements on sample distribution or labels. We discover that embeddings from backdoored models tend to cluster together in the embedding space for a given inspection image. Evaluation results show that EmInspector can effectively mitigate backdoor attacks on FSSL across various adversary settings. Our code is avaliable at https://github.com/ShuchiWu/EmInspector.
- Abstract(参考訳): フェデレートされた自己教師型学習(FSSL)は、データプライバシを保護しながら、膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして最近登場した。
FSSLはアドバンテージを提供するが、従来のFSL(Federated supervised learning)で特定されている、バックドア攻撃に対する感受性は調査されていない。
研究のギャップを埋めるため、我々はバックドア攻撃のパラダイムを包括的に調査し、不気味なクライアントがグローバルモデルを操作し、そのような攻撃に対するFSSLの脆弱性を明らかにする。
FSLでは、バックドア攻撃は通常、バックドアトリガーとターゲットラベルとを直接関連付ける。
対照的に、FSSLでは、バックドアアタックは、攻撃者の意図するターゲットクラスを優先して、攻撃者の指定したトリガーパターンを含むイメージに対して、グローバルモデルの表現を変更することを目的としている。
この意味では、既存の防御がFSSLのバックドア攻撃を緩和するには不十分であることを示し、効果的な防御機構の発見が急務である。
この問題に対処するため、我々はFSSLに対するバックドア攻撃の基本的なメカニズムを掘り下げ、ローカルモデルの埋め込み空間を検査して悪意のあるクライアントを検出するEmInspector(EmInspector)を提案する。
特に、EmInspectorは、サンプル分布やラベルの特定の要求なしに、小さな検査画像(例えば、CIFAR100の10の画像)を使用して、異なるローカルモデルからの埋め込みの類似性を評価する。
バックドアモデルからの埋め込みは、与えられた検査画像の埋め込み空間にまとめられる傾向があることを発見した。
評価結果から,EmInspectorはFSSLに対するバックドア攻撃を効果的に軽減できることが示された。
私たちのコードはhttps://github.com/ShuchiWu/EmInspector.comで有効です。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Venomancer: Towards Imperceptible and Target-on-Demand Backdoor Attacks in Federated Learning [16.04315589280155]
本稿では,効果的なバックドア攻撃であるVenomancerを提案する。
この方法は、Norm Clipping、Wak DP、Krum、Multi-Krum、RLR、FedRAD、Deepsight、RFLBATといった最先端の防御に対して堅牢である。
論文 参考訳(メタデータ) (2024-07-03T14:22:51Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - BAGEL: Backdoor Attacks against Federated Contrastive Learning [18.32846642838125]
本研究では,FCL(Federated Contrastive Learning)に対するバックドア攻撃を先駆的研究として研究する。
悪意のあるクライアントは、悪質なローカルアップデートをアップロードすることで、グローバルエンコーダにバックドアを注入できる。
また、2つの異なるバックドア攻撃の観点から、複数の下流モデルにバックドアを注入する方法についても検討する。
論文 参考訳(メタデータ) (2023-09-14T13:05:31Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。