論文の概要: Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing
- arxiv url: http://arxiv.org/abs/2503.21236v1
- Date: Thu, 27 Mar 2025 07:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:51:26.388515
- Title: Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing
- Title(参考訳): クリーニング画像が危険かもしれない: ディープハッシュ攻撃のデータ
- Authors: Shuai Li, Jie Zhang, Yuang Qi, Kejiang Chen, Tianwei Zhang, Weiming Zhang, Nenghai Yu,
- Abstract要約: クリーンなクエリ画像でさえ危険であり、望ましくない画像や違法な画像などの悪意のあるターゲット検索結果が誘導される。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
- 参考スコア(独自算出の注目度): 71.30876587855867
- License:
- Abstract: Large-scale image retrieval using deep hashing has become increasingly popular due to the exponential growth of image data and the remarkable feature extraction capabilities of deep neural networks (DNNs). However, deep hashing methods are vulnerable to malicious attacks, including adversarial and backdoor attacks. It is worth noting that these attacks typically involve altering the query images, which is not a practical concern in real-world scenarios. In this paper, we point out that even clean query images can be dangerous, inducing malicious target retrieval results, like undesired or illegal images. To the best of our knowledge, we are the first to study data \textbf{p}oisoning \textbf{a}ttacks against \textbf{d}eep \textbf{hash}ing \textbf{(\textit{PADHASH})}. Specifically, we first train a surrogate model to simulate the behavior of the target deep hashing model. Then, a strict gradient matching strategy is proposed to generate the poisoned images. Extensive experiments on different models, datasets, hash methods, and hash code lengths demonstrate the effectiveness and generality of our attack method.
- Abstract(参考訳): 画像データの指数的増加とディープニューラルネットワーク(DNN)の顕著な特徴抽出能力により、ディープハッシュを用いた大規模画像検索が人気を博している。
しかし、ディープハッシュ手法は、敵対的攻撃やバックドア攻撃を含む悪意のある攻撃に対して脆弱である。
これらの攻撃は典型的にクエリイメージの変更を伴うが、現実のシナリオでは現実的な懸念にはならない。
本稿では,クリーンなクエリ画像であっても危険であり,望ましくない画像や違法な画像などの悪意のあるターゲット検索結果を誘導する。
我々の知る限りでは、最初にデータを研究したのは \textbf{p}oisoning \textbf{a}ttacks against \textbf{d}eep \textbf{hash}ing \textbf{(\textit{PADHASH})} である。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
異なるモデル、データセット、ハッシュメソッド、ハッシュコード長に関する大規模な実験は、攻撃方法の有効性と汎用性を示している。
関連論文リスト
- BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - Hiding Images into Images with Real-world Robustness [21.328984859163956]
高品質な画像抽出を実現しつつ,画像に隠蔽する生成ネットワーク方式を提案する。
埋め込みネットワークは、攻撃層、分離ネットワーク、画像抽出ネットワークと順次分離される。
私たちは3つの秘密のイメージをしっかりと隠した最初の人です。
論文 参考訳(メタデータ) (2021-10-12T02:20:34Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Adversarial collision attacks on image hashing functions [9.391375268580806]
画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
論文 参考訳(メタデータ) (2020-11-18T18:59:02Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。