論文の概要: Infighting in the Dark: Multi-Labels Backdoor Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2409.19601v1
- Date: Sun, 29 Sep 2024 07:37:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:57:23.029020
- Title: Infighting in the Dark: Multi-Labels Backdoor Attack in Federated Learning
- Title(参考訳): 闇の中でのインファイティング:フェデレートラーニングにおけるマルチラベルバックドアアタック
- Authors: Ye Li, Yanchao Zhao, Chengcheng Zhu, Jiale Zhang,
- Abstract要約: フェデレートラーニング(FL)は、バックドア攻撃に弱いことが示されている。
We propose M2M, a novel multi-label backdoor attack in federated learning (FL)。
この研究は、研究者や開発者にこの潜在的な脅威を警告し、効果的な検出方法の設計を促すことを目的としている。
- 参考スコア(独自算出の注目度): 9.441965281943132
- License:
- Abstract: Federated Learning (FL) has been demonstrated to be vulnerable to backdoor attacks. As a decentralized machine learning framework, most research focuses on the Single-Label Backdoor Attack (SBA), where adversaries share the same target but neglect the fact that adversaries may be unaware of each other's existence and hold different targets, i.e., Multi-Label Backdoor Attack (MBA). Unfortunately, directly applying prior work to the MBA would not only be ineffective but also potentially mitigate each other. In this paper, we first investigate the limitations of applying previous work to the MBA. Subsequently, we propose M2M, a novel multi-label backdoor attack in federated learning (FL), which adversarially adapts the backdoor trigger to ensure that the backdoored sample is processed as clean target samples in the global model. Our key intuition is to establish a connection between the trigger pattern and the target class distribution, allowing different triggers to activate backdoors along clean activation paths of the target class without concerns about potential mitigation. Extensive evaluations comprehensively demonstrate that M2M outperforms various state-of-the-art attack methods. This work aims to alert researchers and developers to this potential threat and to inspire the design of effective detection methods. Our code will be made available later.
- Abstract(参考訳): フェデレートラーニング(FL)は、バックドア攻撃に弱いことが示されている。
分散機械学習フレームワークとして、ほとんどの研究はSBA(Single-Label Backdoor Attack)に焦点を当てている。
残念なことに、MBAに事前の作業を適用することは、効果がないだけでなく、お互いを緩和する可能性がある。
本稿では,MBAに先行研究を適用する際の限界について検討する。
続いて, 裏口トリガを逆順に適応させて, 裏口サンプルをグローバルモデルにおけるクリーンターゲットとして処理する, 新たな多ラベルバックドア攻撃であるM2Mを提案する。
我々の重要な直感は、トリガーパターンとターゲットクラスの分布との接続を確立することであり、異なるトリガーが潜在的な緩和を心配することなく、ターゲットクラスのクリーンなアクティベーションパスに沿ってバックドアをアクティベートできるようにする。
広範囲な評価により、M2Mは様々な最先端の攻撃方法より優れていることが示された。
この研究は、研究者や開発者にこの潜在的な脅威を警告し、効果的な検出方法の設計を促すことを目的としている。
私たちのコードは後で利用可能になります。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Federated Learning by Poisoning Backdoor-Critical Layers [32.510730902353224]
フェデレートラーニング(FL)は、分散デバイス間の機密データに対する機械学習トレーニングを可能にするために広くデプロイされている。
本稿では,攻撃者の視点からバックドア層を同定し,検証する一般的なin-situアプローチを提案する。
特定されたBC層に基づいて、様々な防衛戦略の下で攻撃効果とステルスネスの基本的なバランスを適応的に求める新しいバックドアアタック手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-08-08T05:46:47Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - M-to-N Backdoor Paradigm: A Multi-Trigger and Multi-Target Attack to Deep Learning Models [17.699749361475774]
我々は新たな$M$-to-$N$攻撃パラダイムを提案し、攻撃者が任意の入力を操作してターゲットクラスを攻撃できるようにする。
我々の攻撃は、ターゲットクラスごとに$M$のクリーンイメージをトリガーとして選択し、提案した有毒画像生成フレームワークを活用する。
我々の新たなバックドア攻撃は、複数のターゲットクラスを攻撃し、前処理操作や既存の防御に対して堅牢である。
論文 参考訳(メタデータ) (2022-11-03T15:06:50Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Marksman Backdoor: Backdoor Attacks with Arbitrary Target Class [17.391987602738606]
近年、機械学習モデルはバックドア攻撃に弱いことが示されている。
この論文は、マークスマン(Marksman)と呼ばれるより強力なペイロードを持つ、新しいバックドア攻撃を利用する。
提案するフレームワークは,複数のベンチマークデータセットにおいてクリーンデータ性能を維持しつつ,高い攻撃性能を実現することを実証的に示す。
論文 参考訳(メタデータ) (2022-10-17T15:46:57Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。