論文の概要: BAGEL: Backdoor Attacks against Federated Contrastive Learning
- arxiv url: http://arxiv.org/abs/2311.16113v1
- Date: Thu, 14 Sep 2023 13:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 15:42:08.066384
- Title: BAGEL: Backdoor Attacks against Federated Contrastive Learning
- Title(参考訳): BAGEL:Federated Contrastive Learningに対するバックドア攻撃
- Authors: Yao Huang, Kongyang Chen, Jiannong Cao, Jiaxing Shen, Shaowei Wang, Yun Peng, Weilong Peng, Kechao Cai,
- Abstract要約: 本研究では,FCL(Federated Contrastive Learning)に対するバックドア攻撃を先駆的研究として研究する。
悪意のあるクライアントは、悪質なローカルアップデートをアップロードすることで、グローバルエンコーダにバックドアを注入できる。
また、2つの異なるバックドア攻撃の観点から、複数の下流モデルにバックドアを注入する方法についても検討する。
- 参考スコア(独自算出の注目度): 18.32846642838125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Contrastive Learning (FCL) is an emerging privacy-preserving paradigm in distributed learning for unlabeled data. In FCL, distributed parties collaboratively learn a global encoder with unlabeled data, and the global encoder could be widely used as a feature extractor to build models for many downstream tasks. However, FCL is also vulnerable to many security threats (e.g., backdoor attacks) due to its distributed nature, which are seldom investigated in existing solutions. In this paper, we study the backdoor attack against FCL as a pioneer research, to illustrate how backdoor attacks on distributed local clients act on downstream tasks. Specifically, in our system, malicious clients can successfully inject a backdoor into the global encoder by uploading poisoned local updates, thus downstream models built with this global encoder will also inherit the backdoor. We also investigate how to inject backdoors into multiple downstream models, in terms of two different backdoor attacks, namely the \textit{centralized attack} and the \textit{decentralized attack}. Experiment results show that both the centralized and the decentralized attacks can inject backdoors into downstream models effectively with high attack success rates. Finally, we evaluate two defense methods against our proposed backdoor attacks in FCL, which indicates that the decentralized backdoor attack is more stealthy and harder to defend.
- Abstract(参考訳): Federated Contrastive Learning (FCL)は、ラベルなしデータの分散学習において、新たなプライバシ保護パラダイムである。
FCLでは、分散パーティはラベルのないデータでグローバルエンコーダを協調的に学習し、グローバルエンコーダは、多くの下流タスクのためのモデルを構築する機能抽出器として広く使用することができる。
しかし、FCLは、既存のソリューションではめったに調査されない分散性のため、多くのセキュリティ脅威(例えば、バックドア攻撃)に対して脆弱である。
本稿では,FCLに対するバックドア攻撃を先駆的な研究として検討し,分散ローカルクライアントに対するバックドア攻撃が下流タスクにどのように作用するかを説明する。
具体的には、このシステムでは、悪意のあるクライアントが悪質なローカルアップデートをアップロードすることで、バックドアをグローバルエンコーダに注入できるので、このグローバルエンコーダで構築された下流モデルもバックドアを継承する。
また、複数の下流モデルにバックドアを注入する方法についても検討し、それぞれ異なる2つのバックドア攻撃、すなわち \textit{centralized attack} と \textit{decentralized attack} について検討する。
実験の結果, 集中攻撃と分散攻撃の両方が, 下流モデルにバックドアを効果的に注入し, 高い攻撃成功率を示すことがわかった。
最後に,FCLにおけるバックドア攻撃に対する2つの防御方法の評価を行った。
関連論文リスト
- Backdoor Federated Learning by Poisoning Backdoor-Critical Layers [32.510730902353224]
フェデレートラーニング(FL)は、分散デバイス間の機密データに対する機械学習トレーニングを可能にするために広くデプロイされている。
本稿では,攻撃者の視点からバックドア層を同定し,検証する一般的なin-situアプローチを提案する。
特定されたBC層に基づいて、様々な防衛戦略の下で攻撃効果とステルスネスの基本的なバランスを適応的に求める新しいバックドアアタック手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-08-08T05:46:47Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - On the Vulnerability of Backdoor Defenses for Federated Learning [8.345632941376673]
Federated Learning(FL)は、クライアントのデータを共有することなく、グローバルモデルの共同トレーニングを可能にする、人気のある分散機械学習パラダイムである。
本稿では,現在の防衛機構が,フェデレートラーニングによるバックドアの脅威を真に中和するかどうかを考察する。
本稿では,新たなバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-01-19T17:02:02Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Backdoors Stuck At The Frontdoor: Multi-Agent Backdoor Attacks That
Backfire [8.782809316491948]
複数の攻撃者が同時に被害者モデルをバックドアしようとするマルチエージェントバックドア攻撃シナリオについて検討する。
エージェントが集団攻撃の成功率の低いゲームで一貫したバックファイリング現象が観察される。
その結果,実践環境におけるバックドア・ディフェンス研究の再評価の動機となった。
論文 参考訳(メタデータ) (2022-01-28T16:11:40Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - BAAAN: Backdoor Attacks Against Autoencoder and GAN-Based Machine
Learning Models [21.06679566096713]
我々は、マシンラーニングモデル、すなわちバックドア攻撃に対する最も深刻な攻撃の1つを、オートエンコーダとGANの両方に対して探索する。
バックドアアタック(英語: backdoor attack)とは、敵が秘密のトリガーによってのみ起動できるターゲットモデルに隠れたバックドアを実装する訓練時間アタックである。
バックドア攻撃の適用性をオートエンコーダやGANベースのモデルに拡張する。
論文 参考訳(メタデータ) (2020-10-06T20:26:16Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。