論文の概要: Trojaning semi-supervised learning model via poisoning wild images on
the web
- arxiv url: http://arxiv.org/abs/2301.00435v1
- Date: Sun, 1 Jan 2023 16:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:24:48.345779
- Title: Trojaning semi-supervised learning model via poisoning wild images on
the web
- Title(参考訳): Web上の有害野生画像を用いたトロイの木馬半教師学習モデル
- Authors: Le Feng and Zhenxing Qian and Sheng Li and Xinpeng Zhang
- Abstract要約: 以前の攻撃のほとんどは、野生のイメージがラベル付けされていると仮定していた。
半教師付き学習(SSL)下でのラベルなしバックドア画像が、広く研究されているディープニューラルネットワークに与える影響について検討した。
実験により、ほとんどのSSLアルゴリズムにおいて、我々の中毒は最先端の攻撃成功率を達成することが示された。
- 参考スコア(独自算出の注目度): 25.962808985620782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wild images on the web are vulnerable to backdoor (also called trojan)
poisoning, causing machine learning models learned on these images to be
injected with backdoors. Most previous attacks assumed that the wild images are
labeled. In reality, however, most images on the web are unlabeled.
Specifically, we study the effects of unlabeled backdoor images under
semi-supervised learning (SSL) on widely studied deep neural networks. To be
realistic, we assume that the adversary is zero-knowledge and that the
semi-supervised learning model is trained from scratch. Firstly, we find the
fact that backdoor poisoning always fails when poisoned unlabeled images come
from different classes, which is different from poisoning the labeled images.
The reason is that the SSL algorithms always strive to correct them during
training. Therefore, for unlabeled images, we implement backdoor poisoning on
images from the target class. Then, we propose a gradient matching strategy to
craft poisoned images such that their gradients match the gradients of target
images on the SSL model, which can fit poisoned images to the target class and
realize backdoor injection. To the best of our knowledge, this may be the first
approach to backdoor poisoning on unlabeled images of trained-from-scratch SSL
models. Experiments show that our poisoning achieves state-of-the-art attack
success rates on most SSL algorithms while bypassing modern backdoor defenses.
- Abstract(参考訳): ウェブ上の野生の画像はバックドア(トロイの木馬とも呼ばれる)中毒に弱いため、これらの画像から学習した機械学習モデルをバックドアで注入する。
以前の攻撃のほとんどは、野生の画像をラベル付けしていると仮定していた。
しかし実際には、web上のほとんどの画像はラベルが付いていない。
具体的には,半教師付き学習(ssl)におけるラベルなしバックドア画像の効果について検討した。
現実には、敵はゼロ知識であり、半教師付き学習モデルがゼロから訓練されていると仮定する。
まず, 有毒無標識画像が異なるクラスから来る場合, 裏口中毒は必ず失敗すること, ラベル付き画像の中毒とは異なること, を見いだす。
その理由は、SSLアルゴリズムがトレーニング中に常に修正を試みているからだ。
そこで,未ラベル画像に対しては,対象クラスの画像に対してバックドア毒を施す。
そこで本研究では, SSL モデル上の対象画像の勾配に適合し, 対象画像に適合し, バックドア注入を実現するように, 有害画像を作成するための勾配マッチング戦略を提案する。
我々の知る限り、これは訓練済みのSSLモデルのラベルなし画像にバックドア中毒を起こさせる最初のアプローチかもしれない。
実験により、現代のバックドア防御をバイパスしながら、ほとんどのSSLアルゴリズムで最先端の攻撃成功率を達成することが示された。
関連論文リスト
- How to Craft Backdoors with Unlabeled Data Alone? [54.47006163160948]
自己教師型学習(SSL)は、経済的かつスケーラブルな方法でリッチな機能を学ぶことができる。
リリースされたデータセットが悪意ある毒を盛られた場合、テストサンプルにトリガーが注入された場合、バックドアのSSLモデルはひどい振る舞いをする可能性がある。
本稿では, 疑似ラベルを用いたクラスタリングに基づく選別と, 相互情報原理に基づくコントラスト選択の2つの方法を提案する。
論文 参考訳(メタデータ) (2024-04-10T02:54:18Z) - Object-oriented backdoor attack against image captioning [40.5688859498834]
画像分類タスクに対するバックドア攻撃は広く研究され、成功したことが証明されている。
本稿では,トレーニングデータから画像キャプションモデルへのバックドア攻撃について検討する。
本手法は,画像キャプティングモデルのバックドア攻撃に対する弱点を証明し,画像キャプティング分野におけるバックドア攻撃に対する防御意識を高めることを期待する。
論文 参考訳(メタデータ) (2024-01-05T01:52:13Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning [4.420110599382241]
FLバックドアの耐久性と良性画像と有毒画像の関係について検討した。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するために,コントラスト学習を利用する新たな攻撃であるChameleonを提案する。
論文 参考訳(メタデータ) (2023-04-25T16:11:10Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Backdoor Attacks on Self-Supervised Learning [22.24046752858929]
自己教師型学習手法は,バックドア攻撃に対して脆弱であることを示す。
攻撃者は、画像に小さなトリガー(攻撃者として知られる)を追加することで、ラベルのないデータの一部を毒する。
本稿では,攻撃を中和する知識蒸留に基づく防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-21T04:22:05Z) - Reverse Engineering Imperceptible Backdoor Attacks on Deep Neural
Networks for Detection and Training Set Cleansing [22.22337220509128]
バックドアデータ中毒は、ディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
本稿では,非受容的なバックドアパターンを用いたバックドア攻撃の防御において,ブレークスルーを行う。
1)トレーニングセットが毒であるかどうかを検知し,2)ターゲットクラスとトレーニングイメージをバックドアパターンを埋め込んだ状態で識別し,3)攻撃者が使用するバックドアパターンの推定をリバースエンジニアリングする。
論文 参考訳(メタデータ) (2020-10-15T03:12:24Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。