論文の概要: DiffHash: Text-Guided Targeted Attack via Diffusion Models against Deep Hashing Image Retrieval
- arxiv url: http://arxiv.org/abs/2509.12824v1
- Date: Tue, 16 Sep 2025 08:49:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.974972
- Title: DiffHash: Text-Guided Targeted Attack via Diffusion Models against Deep Hashing Image Retrieval
- Title(参考訳): DiffHash: ディープハッシュ画像検索に対する拡散モデルによるテキスト誘導ターゲット攻撃
- Authors: Zechao Liu, Zheng Zhou, Xiangkun Chen, Tao Liang, Dapeng Lang,
- Abstract要約: 大規模画像検索の課題に対処するために、ディープハッシュモデルが広く採用されている。
ディープハッシュモデルは、敵の例に対する脆弱性のために深刻なセキュリティリスクに直面します。
本稿では,DiffHashを提案する。
- 参考スコア(独自算出の注目度): 8.42949283173691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing models have been widely adopted to tackle the challenges of large-scale image retrieval. However, these approaches face serious security risks due to their vulnerability to adversarial examples. Despite the increasing exploration of targeted attacks on deep hashing models, existing approaches still suffer from a lack of multimodal guidance, reliance on labeling information and dependence on pixel-level operations for attacks. To address these limitations, we proposed DiffHash, a novel diffusion-based targeted attack for deep hashing. Unlike traditional pixel-based attacks that directly modify specific pixels and lack multimodal guidance, our approach focuses on optimizing the latent representations of images, guided by text information generated by a Large Language Model (LLM) for the target image. Furthermore, we designed a multi-space hash alignment network to align the high-dimension image space and text space to the low-dimension binary hash space. During reconstruction, we also incorporated text-guided attention mechanisms to refine adversarial examples, ensuring them aligned with the target semantics while maintaining visual plausibility. Extensive experiments have demonstrated that our method outperforms state-of-the-art (SOTA) targeted attack methods, achieving better black-box transferability and offering more excellent stability across datasets.
- Abstract(参考訳): 大規模画像検索の課題に対処するために、ディープハッシュモデルが広く採用されている。
しかし、これらのアプローチは敵の例に対する脆弱性のために深刻なセキュリティリスクに直面している。
ディープハッシュモデルに対する標的攻撃の探索が増えているにもかかわらず、既存のアプローチは、マルチモーダルガイダンスの欠如、ラベル情報への依存、および攻撃に対するピクセルレベルの操作への依存に悩まされている。
これらの制限に対処するため,我々はDiffHashを提案した。
特定のピクセルを直接修正しマルチモーダルガイダンスを欠く従来のピクセルベースの攻撃とは異なり、我々のアプローチは、ターゲット画像に対してLLM(Large Language Model)によって生成されたテキスト情報によって導かれる画像の潜在表現を最適化することに焦点を当てている。
さらに,高次元画像空間とテキスト空間を低次元バイナリハッシュ空間に整列するマルチスペースハッシュアライメントネットワークを設計した。
再建の際にはテキスト誘導による注意機構を組み込んで敵の例を洗練させ,視覚的可視性を維持しつつ,対象のセマンティクスと整合性を確保した。
大規模な実験により,本手法は攻撃手法の最先端(SOTA)よりも優れ,ブラックボックス転送性が向上し,データセット間の安定性が向上することが示された。
関連論文リスト
- Accelerating Targeted Hard-Label Adversarial Attacks in Low-Query Black-Box Settings [1.104960878651584]
画像分類のためのディープニューラルネットワークは、敵の例に弱いままである。
本稿では,ターゲット画像からのエッジ情報を用いて注意深く摂動する新たな攻撃であるTargeted Edge-informed Attack (TEA)を提案する。
当社のアプローチは、クエリ設定の低さにおいて、さまざまなモデルにわたる現在の最先端メソッドを一貫して上回ります。
論文 参考訳(メタデータ) (2025-05-22T07:10:12Z) - Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing [71.30876587855867]
クリーンなクエリ画像でさえ危険であり、望ましくない画像や違法な画像などの悪意のあるターゲット検索結果が誘導される。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
論文 参考訳(メタデータ) (2025-03-27T07:54:27Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Semantic Adversarial Attacks via Diffusion Models [30.169827029761702]
セマンティック敵攻撃は、色、コンテキスト、特徴などのクリーンな例のセマンティック属性の変更に焦点を当てる。
本稿では,近年の拡散モデルを利用して,セマンティック・アタックを迅速に生成するフレームワークを提案する。
提案手法は,FIDが36.61である複数環境での攻撃成功率を約100%達成する。
論文 参考訳(メタデータ) (2023-09-14T02:57:48Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Two-branch Multi-scale Deep Neural Network for Generalized Document
Recapture Attack Detection [25.88454144842164]
画像再キャプチャー攻撃は、ある法医学的痕跡を消去するための効果的な画像操作方法であり、個人文書イメージをターゲットとすると、電子商取引やその他のウェブアプリケーションのセキュリティに大きな脅威をもたらす。
本稿では,周波数フィルタバンクとマルチスケールクロスアテンション融合モジュールを設計した,より汎用化された再キャプチャアーティファクトをマイニングすることで,新しい2分岐ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T06:57:11Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。