論文の概要: BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label
- arxiv url: http://arxiv.org/abs/2207.00278v2
- Date: Mon, 4 Jul 2022 02:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 10:51:54.056802
- Title: BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label
- Title(参考訳): badhash:クリーンラベルによるディープハッシュに対する見えないバックドア攻撃
- Authors: Shengshan Hu, Ziqi Zhou, Yechao Zhang, Leo Yu Zhang, Yifeng Zheng,
Yuanyuan HE, Hai Jin
- Abstract要約: 本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
- 参考スコア(独自算出の注目度): 20.236328601459203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to its powerful feature learning capability and high efficiency, deep
hashing has achieved great success in large-scale image retrieval. Meanwhile,
extensive works have demonstrated that deep neural networks (DNNs) are
susceptible to adversarial examples, and exploring adversarial attack against
deep hashing has attracted many research efforts. Nevertheless, backdoor
attack, another famous threat to DNNs, has not been studied for deep hashing
yet. Although various backdoor attacks have been proposed in the field of image
classification, existing approaches failed to realize a truly imperceptive
backdoor attack that enjoys invisible triggers and clean label setting
simultaneously, and they also cannot meet the intrinsic demand of image
retrieval backdoor.
In this paper, we propose BadHash, the first generative-based imperceptible
backdoor attack against deep hashing, which can effectively generate invisible
and input-specific poisoned images with clean label. Specifically, we first
propose a new conditional generative adversarial network (cGAN) pipeline to
effectively generate poisoned samples. For any given benign image, it seeks to
generate a natural-looking poisoned counterpart with a unique invisible
trigger. In order to improve the attack effectiveness, we introduce a
label-based contrastive learning network LabCLN to exploit the semantic
characteristics of different labels, which are subsequently used for confusing
and misleading the target model to learn the embedded trigger. We finally
explore the mechanism of backdoor attacks on image retrieval in the hash space.
Extensive experiments on multiple benchmark datasets verify that BadHash can
generate imperceptible poisoned samples with strong attack ability and
transferability over state-of-the-art deep hashing schemes.
- Abstract(参考訳): 強力な特徴学習能力と高効率のため、ディープハッシュは大規模な画像検索において大きな成功を収めた。
一方で、ディープニューラルネットワーク(dnn)は敵の例に影響を受けやすく、ディープハッシュに対する敵意攻撃を探求する多くの研究成果が寄せられている。
それでも、DNNに対するもう一つの有名な脅威であるバックドア攻撃はまだ研究されていない。
画像分類の分野では様々なバックドア攻撃が提案されているが、既存のアプローチでは、目に見えないトリガーとクリーンなラベル設定を同時に享受する真に無意味なバックドア攻撃を実現することができず、画像検索バックドアの本質的な要求を満たすことができない。
本稿では,BadHashを提案する。このBadHashは,隠れハッシュに対する最初の生成不能なバックドア攻撃であり,クリーンなラベルで,目に見えない,入力特有の有毒なイメージを効果的に生成することができる。
具体的には, 有毒試料を効果的に生成する新しい条件付き生成逆ネットワーク(cgan)パイプラインを提案する。
どんな良質な画像でも、ユニークな目に見えないトリガーで自然に毒を盛った画像を生成する。
攻撃効果を向上させるために,ラベルベースのコントラスト学習ネットワークlabclnを導入して,異なるラベルの意味的特徴を活用し,ターゲットモデルを混乱させ誤解させ,組込みトリガーを学習させる。
最終的に、ハッシュ空間における画像検索に対するバックドア攻撃のメカニズムを探求する。
複数のベンチマークデータセットでの広範な実験により、badhashが最先端のディープハッシュスキームよりも強力な攻撃能力と転送性を持つ、不可避な有毒なサンプルを生成できることが確認された。
関連論文リスト
- Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Reliable and Efficient Evaluation of Adversarial Robustness for Deep
Hashing-Based Retrieval [20.3473596316839]
PgAと呼ばれる新しいファロス誘導攻撃を提案し、深層ハッシュネットワークの対角的堅牢性を確実かつ効率的に評価する。
PgAは、逆例のハッシュコードとファロスコードとの類似性を最大化することにより、ディープハッシュベースの検索に対する信頼性が高く効率的な攻撃を行うことができる。
論文 参考訳(メタデータ) (2023-03-22T15:36:19Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。