論文の概要: Clean-label Backdoor Attack against Deep Hashing based Retrieval
- arxiv url: http://arxiv.org/abs/2109.08868v1
- Date: Sat, 18 Sep 2021 07:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:55:52.995188
- Title: Clean-label Backdoor Attack against Deep Hashing based Retrieval
- Title(参考訳): ディープハッシュに基づく検索に対するクリーンラベルバックドア攻撃
- Authors: Kuofeng Gao, Jiawang Bai, Bin Chen, Dongxian Wu, Shu-Tao Xia
- Abstract要約: バックドアのディープハッシュモデルは通常、元のクエリイメージで動作し、トリガーが提示されたときにターゲットラベルでイメージを返します。
私たちの知る限りでは、これはディープハッシュモデルに対するバックドア攻撃の最初の試みである。
ハッシュモデルがトリガについてより深く学ぶことができるように、ハッシュコードの学習を妨害するための混乱した摂動を提案する。
- 参考スコア(独自算出の注目度): 34.48182724198197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing has become a popular method in large-scale image retrieval due
to its computational and storage efficiency. However, recent works raise the
security concerns of deep hashing. Although existing works focus on the
vulnerability of deep hashing in terms of adversarial perturbations, we
identify a more pressing threat, backdoor attack, when the attacker has access
to the training data. A backdoored deep hashing model behaves normally on
original query images, while returning the images with the target label when
the trigger presents, which makes the attack hard to be detected. In this
paper, we uncover this security concern by utilizing clean-label data
poisoning. To the best of our knowledge, this is the first attempt at the
backdoor attack against deep hashing models. To craft the poisoned images, we
first generate the targeted adversarial patch as the backdoor trigger.
Furthermore, we propose the confusing perturbations to disturb the hashing code
learning, such that the hashing model can learn more about the trigger. The
confusing perturbations are imperceptible and generated by dispersing the
images with the target label in the Hamming space. We have conducted extensive
experiments to verify the efficacy of our backdoor attack under various
settings. For instance, it can achieve 63% targeted mean average precision on
ImageNet under 48 bits code length with only 40 poisoned images.
- Abstract(参考訳): ディープハッシュはその計算効率とストレージ効率から,大規模画像検索において一般的な手法となっている。
しかし、最近の研究はディープハッシュのセキュリティ上の懸念を提起している。
既存の研究は、敵対的摂動の観点から深いハッシュの脆弱性に焦点を当てていますが、攻撃者がトレーニングデータにアクセスした場合には、より圧力のかかる脅威、バックドア攻撃を特定します。
バックドアのディープハッシュモデルは通常、元のクエリイメージで動作し、トリガーが現れるとターゲットラベルでイメージを返すため、攻撃を検出しにくくする。
本稿では,このセキュリティ上の懸念をクリーンラベルデータ中毒を用いて明らかにする。
私たちの知る限りでは、これはディープハッシュモデルに対するバックドア攻撃の最初の試みである。
毒入り画像を作成するために、まずターゲットの敵パッチをバックドアトリガーとして生成します。
さらに,ハッシュモデルがトリガーについてより詳しく学習できるように,ハッシュ化コード学習を乱すため,混乱する摂動を提案する。
混乱した摂動は、ハミング空間内のターゲットラベルで画像を分散させることで、認識不能で発生します。
各種環境下でのバックドア攻撃の有効性を検証するための広範囲な実験を行った。
例えば、48ビットのコード長でイメージネットの平均平均精度を63%達成でき、わずか40枚の画像しか検出できない。
関連論文リスト
- Clean-image Backdoor Attacks [34.051173092777844]
本稿では,バックドアが不正確なラベルで注入可能であることを明らかにするクリーンイメージバックドア攻撃を提案する。
私たちの攻撃では、攻撃者はまず、トレーニングイメージを2つの部分に分割するトリガー機能を探します。
バックドアは、毒データで訓練された後、最終的にターゲットモデルに埋め込まれる。
論文 参考訳(メタデータ) (2024-03-22T07:47:13Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - Backdoor Attacks on Self-Supervised Learning [22.24046752858929]
自己教師型学習手法は,バックドア攻撃に対して脆弱であることを示す。
攻撃者は、画像に小さなトリガー(攻撃者として知られる)を追加することで、ラベルのないデータの一部を毒する。
本稿では,攻撃を中和する知識蒸留に基づく防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-21T04:22:05Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Reverse Engineering Imperceptible Backdoor Attacks on Deep Neural
Networks for Detection and Training Set Cleansing [22.22337220509128]
バックドアデータ中毒は、ディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
本稿では,非受容的なバックドアパターンを用いたバックドア攻撃の防御において,ブレークスルーを行う。
1)トレーニングセットが毒であるかどうかを検知し,2)ターゲットクラスとトレーニングイメージをバックドアパターンを埋め込んだ状態で識別し,3)攻撃者が使用するバックドアパターンの推定をリバースエンジニアリングする。
論文 参考訳(メタデータ) (2020-10-15T03:12:24Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。