論文の概要: Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning
- arxiv url: http://arxiv.org/abs/2304.12961v2
- Date: Thu, 25 May 2023 10:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 20:18:30.243320
- Title: Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning
- Title(参考訳): chameleon: 連合学習における耐久性のあるバックドアの植え付けのためのピアイメージへの適応
- Authors: Yanbo Dai, Songze Li
- Abstract要約: FLバックドアの耐久性と良性画像と有毒画像の関係について検討した。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するために,コントラスト学習を利用する新たな攻撃であるChameleonを提案する。
- 参考スコア(独自算出の注目度): 4.420110599382241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a federated learning (FL) system, distributed clients upload their local
models to a central server to aggregate into a global model. Malicious clients
may plant backdoors into the global model through uploading poisoned local
models, causing images with specific patterns to be misclassified into some
target labels. Backdoors planted by current attacks are not durable, and vanish
quickly once the attackers stop model poisoning. In this paper, we investigate
the connection between the durability of FL backdoors and the relationships
between benign images and poisoned images (i.e., the images whose labels are
flipped to the target label during local training). Specifically, benign images
with the original and the target labels of the poisoned images are found to
have key effects on backdoor durability. Consequently, we propose a novel
attack, Chameleon, which utilizes contrastive learning to further amplify such
effects towards a more durable backdoor. Extensive experiments demonstrate that
Chameleon significantly extends the backdoor lifespan over baselines by
$1.2\times \sim 4\times$, for a wide range of image datasets, backdoor types,
and model architectures.
- Abstract(参考訳): フェデレーション学習(fl)システムでは、分散クライアントはローカルモデルを中央サーバにアップロードしてグローバルモデルに集約する。
悪意のあるクライアントは、毒入りのローカルモデルをアップロードすることで、グローバルモデルにバックドアを植え込み、特定のパターンを持つ画像を一部のターゲットラベルに誤分類する。
現在の攻撃によって植えられたバックドアは耐久性がなく、攻撃者がモデル中毒をやめるとすぐに消滅する。
本稿では,flバックドアの耐久性と良性画像と有毒画像との関係について検討する。
具体的には、原画像と被毒画像の標的ラベルとの良性画像は、バックドア耐久性に重要な影響を及ぼす。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するためにコントラスト学習を利用する新たな攻撃であるChameleonを提案する。
広範な実験により、chameleonは、幅広い画像データセット、バックドアタイプ、およびモデルアーキテクチャに対して、ベースラインよりもバックドアの寿命を12\times \sim 4\times$で大幅に伸ばすことが示されている。
関連論文リスト
- Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [70.29989887008209]
既存のバックドア防御手法では、いくつかのバリデーションデータとモデルパラメータにアクセスする必要があることが多い。
マスク付きオートエンコーダ(BDMAE)を用いたブラインドディフェンスの枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Trojaning semi-supervised learning model via poisoning wild images on
the web [25.962808985620782]
以前の攻撃のほとんどは、野生のイメージがラベル付けされていると仮定していた。
半教師付き学習(SSL)下でのラベルなしバックドア画像が、広く研究されているディープニューラルネットワークに与える影響について検討した。
実験により、ほとんどのSSLアルゴリズムにおいて、我々の中毒は最先端の攻撃成功率を達成することが示された。
論文 参考訳(メタデータ) (2023-01-01T16:12:43Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。