論文の概要: DarkHash: A Data-Free Backdoor Attack Against Deep Hashing
- arxiv url: http://arxiv.org/abs/2510.08094v1
- Date: Thu, 09 Oct 2025 11:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.039384
- Title: DarkHash: A Data-Free Backdoor Attack Against Deep Hashing
- Title(参考訳): DarkHash: ディープハッシュに対するデータフリーのバックドア攻撃
- Authors: Ziqi Zhou, Menghao Deng, Yufei Song, Hangtao Zhang, Wei Wan, Shengshan Hu, Minghui Li, Leo Yu Zhang, Dezhong Yao,
- Abstract要約: 近年の研究では、バックドア攻撃に対するディープハッシュモデルの脆弱性が実証されている。
本稿では,DarkHashを提案する。DarkHashはディープハッシュに対する最初のデータフリーバックドア攻撃である。
- 参考スコア(独自算出の注目度): 42.750914905837824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benefiting from its superior feature learning capabilities and efficiency, deep hashing has achieved remarkable success in large-scale image retrieval. Recent studies have demonstrated the vulnerability of deep hashing models to backdoor attacks. Although these studies have shown promising attack results, they rely on access to the training dataset to implant the backdoor. In the real world, obtaining such data (e.g., identity information) is often prohibited due to privacy protection and intellectual property concerns. Embedding backdoors into deep hashing models without access to the training data, while maintaining retrieval accuracy for the original task, presents a novel and challenging problem. In this paper, we propose DarkHash, the first data-free backdoor attack against deep hashing. Specifically, we design a novel shadow backdoor attack framework with dual-semantic guidance. It embeds backdoor functionality and maintains original retrieval accuracy by fine-tuning only specific layers of the victim model using a surrogate dataset. We consider leveraging the relationship between individual samples and their neighbors to enhance backdoor attacks during training. By designing a topological alignment loss, we optimize both individual and neighboring poisoned samples toward the target sample, further enhancing the attack capability. Experimental results on four image datasets, five model architectures, and two hashing methods demonstrate the high effectiveness of DarkHash, outperforming existing state-of-the-art backdoor attack methods. Defense experiments show that DarkHash can withstand existing mainstream backdoor defense methods.
- Abstract(参考訳): 優れた特徴学習能力と効率性により、ディープハッシュは大規模な画像検索において顕著な成功を収めた。
近年の研究では、バックドア攻撃に対するディープハッシュモデルの脆弱性が実証されている。
これらの研究は有望な攻撃結果を示しているが、バックドアを埋め込むためのトレーニングデータセットへのアクセスに依存している。
現実世界では、プライバシー保護や知的財産権の懸念から、そのようなデータ(例えば、ID情報)の取得は禁止されることが多い。
トレーニングデータにアクセスせずに、バックドアを深いハッシュモデルに埋め込み、元のタスクの検索精度を維持しながら、新規で困難な問題を提示する。
本稿では,DarkHashを提案する。DarkHashはディープハッシュに対する最初のデータフリーバックドア攻撃である。
具体的には,デュアルセマンティックガイダンスを用いた新規なシャドウバックドアアタック・フレームワークを設計する。
バックドア機能を組み込み、サロゲートデータセットを使用して被害者モデルの特定のレイヤのみを微調整することで、元の検索精度を維持する。
個人サンプルと近隣住民の関係を利用してトレーニング中のバックドア攻撃を強化することを検討する。
トポロジカルアライメントの損失を設計することにより、個人および近隣の有毒試料を標的試料に最適化し、さらに攻撃能力を増強する。
4つのイメージデータセット、5つのモデルアーキテクチャ、2つのハッシュ手法の実験結果は、DarkHashの有効性を実証している。
防衛実験は、DarkHashが既存の主流のバックドア防御手法に抵抗できることを示している。
関連論文リスト
- Data Free Backdoor Attacks [83.10379074100453]
DFBAは、モデルアーキテクチャを変更することなく、リトレーニングフリーでデータフリーのバックドア攻撃である。
我々の注入されたバックドアは、様々な最先端の防御策によって、検出不可能で、検出不能であることを確認した。
複数のデータセットに対する評価では,1) 無視可能な分類損失,2) 攻撃成功率,3) 既存の6つの防御を回避している。
論文 参考訳(メタデータ) (2024-12-09T05:30:25Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Personalization as a Shortcut for Few-Shot Backdoor Attack against
Text-to-Image Diffusion Models [23.695414399663235]
本稿では,個人化によるバックドア攻撃に対するテキスト・ツー・イメージ(T2I)拡散モデルの潜在的な脆弱性について検討する。
本研究は,テキスト・インバージョンとDreamBoothによるパーソナライズ手法の2つのファミリーで普及しているゼロデイバックドア脆弱性に焦点を当てた。
Textual InversionとDreamBoothの即時処理を研究することで、未確認トークンの扱い方によって、バックドア攻撃を考案しました。
論文 参考訳(メタデータ) (2023-05-18T04:28:47Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - Anti-Backdoor Learning: Training Clean Models on Poisoned Data [17.648453598314795]
ディープニューラルネットワーク(DNN)に対するセキュリティ上の脅威としてバックドア攻撃が出現
提案手法は,バックドア・ポゾンデータを用いたアンファンクレーンモデルの学習を目的とした,アンファンティ・バックドア学習の概念を導入する。
バックドアポゾンデータ上でのABL学習モデルは、純粋にクリーンなデータでトレーニングされたのと同じ性能を実証的に示す。
論文 参考訳(メタデータ) (2021-10-22T03:30:48Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。