論文の概要: Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning
- arxiv url: http://arxiv.org/abs/2304.12961v2
- Date: Thu, 25 May 2023 10:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 20:18:30.243320
- Title: Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning
- Title(参考訳): chameleon: 連合学習における耐久性のあるバックドアの植え付けのためのピアイメージへの適応
- Authors: Yanbo Dai, Songze Li
- Abstract要約: FLバックドアの耐久性と良性画像と有毒画像の関係について検討した。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するために,コントラスト学習を利用する新たな攻撃であるChameleonを提案する。
- 参考スコア(独自算出の注目度): 4.420110599382241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a federated learning (FL) system, distributed clients upload their local
models to a central server to aggregate into a global model. Malicious clients
may plant backdoors into the global model through uploading poisoned local
models, causing images with specific patterns to be misclassified into some
target labels. Backdoors planted by current attacks are not durable, and vanish
quickly once the attackers stop model poisoning. In this paper, we investigate
the connection between the durability of FL backdoors and the relationships
between benign images and poisoned images (i.e., the images whose labels are
flipped to the target label during local training). Specifically, benign images
with the original and the target labels of the poisoned images are found to
have key effects on backdoor durability. Consequently, we propose a novel
attack, Chameleon, which utilizes contrastive learning to further amplify such
effects towards a more durable backdoor. Extensive experiments demonstrate that
Chameleon significantly extends the backdoor lifespan over baselines by
$1.2\times \sim 4\times$, for a wide range of image datasets, backdoor types,
and model architectures.
- Abstract(参考訳): フェデレーション学習(fl)システムでは、分散クライアントはローカルモデルを中央サーバにアップロードしてグローバルモデルに集約する。
悪意のあるクライアントは、毒入りのローカルモデルをアップロードすることで、グローバルモデルにバックドアを植え込み、特定のパターンを持つ画像を一部のターゲットラベルに誤分類する。
現在の攻撃によって植えられたバックドアは耐久性がなく、攻撃者がモデル中毒をやめるとすぐに消滅する。
本稿では,flバックドアの耐久性と良性画像と有毒画像との関係について検討する。
具体的には、原画像と被毒画像の標的ラベルとの良性画像は、バックドア耐久性に重要な影響を及ぼす。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するためにコントラスト学習を利用する新たな攻撃であるChameleonを提案する。
広範な実験により、chameleonは、幅広い画像データセット、バックドアタイプ、およびモデルアーキテクチャに対して、ベースラインよりもバックドアの寿命を12\times \sim 4\times$で大幅に伸ばすことが示されている。
関連論文リスト
- EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Clean-image Backdoor Attacks [34.051173092777844]
本稿では,バックドアが不正確なラベルで注入可能であることを明らかにするクリーンイメージバックドア攻撃を提案する。
私たちの攻撃では、攻撃者はまず、トレーニングイメージを2つの部分に分割するトリガー機能を探します。
バックドアは、毒データで訓練された後、最終的にターゲットモデルに埋め込まれる。
論文 参考訳(メタデータ) (2024-03-22T07:47:13Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Physical Invisible Backdoor Based on Camera Imaging [32.30547033643063]
現在のバックドア攻撃では、クリーンな画像のピクセルを変更する必要がある。
本稿では,自然画像の画素の変化を伴わずに,カメラ画像に基づく新しい物理見えないバックドアを提案する。
論文 参考訳(メタデータ) (2023-09-14T04:58:06Z) - One-to-Multiple Clean-Label Image Camouflage (OmClic) based Backdoor Attack on Deep Learning [15.118652632054392]
1つのアタック/ポゾン画像は、DLモデルの単一の入力サイズにのみ適合する。
本研究は,カモフラージュによる攻撃画像の構築を提案するが,同時に複数のDLモデルの入力サイズに適合できる。
OmClicを通じて、ユーザがどの共通の入力サイズを選択するかに関わらず、常にバックドアを埋め込むことができます。
論文 参考訳(メタデータ) (2023-09-07T22:13:14Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。