論文の概要: Model Inversion Attack Against Deep Hashing
- arxiv url: http://arxiv.org/abs/2511.12233v1
- Date: Sat, 15 Nov 2025 14:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.580995
- Title: Model Inversion Attack Against Deep Hashing
- Title(参考訳): ディープハッシュに対するモデルインバージョンアタック
- Authors: Dongdong Zhao, Qiben Xu, Ranxin Fang, Baogang Song,
- Abstract要約: DHMIは、ディープハッシュ用に設計された最初の拡散ベースのモデル反転フレームワークである。
最も難しいブラックボックス設定下でさえ、高解像度で高品質な画像を再構成する。
提案手法は,ブラックボックスシナリオにおける既存の最先端モデル逆転攻撃よりも優れる。
- 参考スコア(独自算出の注目度): 0.9055220224305597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep hashing improves retrieval efficiency through compact binary codes, yet it introduces severe and often overlooked privacy risks. The ability to reconstruct original training data from hash codes could lead to serious threats such as biometric forgery and privacy breaches. However, model inversion attacks specifically targeting deep hashing models remain unexplored, leaving their security implications unexamined. This research gap stems from the inaccessibility of genuine training hash codes and the highly discrete Hamming space, which prevents existing methods from adapting to deep hashing. To address these challenges, we propose DHMI, the first diffusion-based model inversion framework designed for deep hashing. DHMI first clusters an auxiliary dataset to derive semantic hash centers as surrogate anchors. It then introduces a surrogate-guided denoising optimization method that leverages a novel attack metric (fusing classification consistency and hash proximity) to dynamically select candidate samples. A cluster of surrogate models guides the refinement of these candidates, ensuring the generation of high-fidelity and semantically consistent images. Experiments on multiple datasets demonstrate that DHMI successfully reconstructs high-resolution, high-quality images even under the most challenging black-box setting, where no training hash codes are available. Our method outperforms the existing state-of-the-art model inversion attacks in black-box scenarios, confirming both its practical efficacy and the critical privacy risks inherent in deep hashing systems.
- Abstract(参考訳): ディープハッシュは、コンパクトなバイナリコードを通じて検索効率を向上させるが、重大かつ見落とされがちなプライバシーリスクをもたらす。
ハッシュコードからオリジナルのトレーニングデータを再構築する能力は、生体認証の偽造やプライバシー侵害といった深刻な脅威につながる可能性がある。
しかし、ディープハッシュモデルに特化したモデルインバージョン攻撃は未検討のままであり、セキュリティへの影響は未検討のままである。
この研究のギャップは、本物のトレーニングハッシュコードや、既存のメソッドが深いハッシュに適応しないようにする、非常に離散的なハミング空間が利用できないことに由来する。
これらの課題に対処するため,我々はDHMIを提案する。
DHMIはまず、セマンティックハッシュセンタをサロゲートアンカーとして導出するための補助データセットをクラスタ化する。
次に、新しい攻撃指標(分類整合性やハッシュ近接性を利用して)を活用して、候補サンプルを動的に選択するシュロゲート誘導復調最適化手法を導入する。
代理モデルのクラスタは、これらの候補の洗練をガイドし、高忠実でセマンティックな一貫性のある画像の生成を保証する。
複数のデータセットの実験により、DHMIは、トレーニングハッシュコードを使用できない最も困難なブラックボックス設定下であっても、高解像度で高品質な画像を再構築することに成功した。
提案手法は、ブラックボックスシナリオにおける既存の最先端モデル逆転攻撃よりも優れており、その実用性と、ディープハッシュシステムに固有の重大なプライバシーリスクの両方を裏付けるものである。
関連論文リスト
- DiffHash: Text-Guided Targeted Attack via Diffusion Models against Deep Hashing Image Retrieval [8.42949283173691]
大規模画像検索の課題に対処するために、ディープハッシュモデルが広く採用されている。
ディープハッシュモデルは、敵の例に対する脆弱性のために深刻なセキュリティリスクに直面します。
本稿では,DiffHashを提案する。
論文 参考訳(メタデータ) (2025-09-16T08:49:53Z) - Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing [71.30876587855867]
クリーンなクエリ画像でさえ危険であり、望ましくない画像や違法な画像などの悪意のあるターゲット検索結果が誘導される。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
論文 参考訳(メタデータ) (2025-03-27T07:54:27Z) - Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval [26.17466361744519]
敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
論文 参考訳(メタデータ) (2023-10-23T07:21:40Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。