論文の概要: Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval
- arxiv url: http://arxiv.org/abs/2310.14637v2
- Date: Thu, 03 Oct 2024 03:51:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-05 03:34:27.228881
- Title: Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval
- Title(参考訳): 信頼度の高い深部ハッシュ検索のためのセマンティック・アウェア・アドバイザリートレーニング
- Authors: Xu Yuan, Zheng Zhang, Xunguang Wang, Lin Wu,
- Abstract要約: 敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
- 参考スコア(独自算出の注目度): 26.17466361744519
- License:
- Abstract: Deep hashing has been intensively studied and successfully applied in large-scale image retrieval systems due to its efficiency and effectiveness. Recent studies have recognized that the existence of adversarial examples poses a security threat to deep hashing models, that is, adversarial vulnerability. Notably, it is challenging to efficiently distill reliable semantic representatives for deep hashing to guide adversarial learning, and thereby it hinders the enhancement of adversarial robustness of deep hashing-based retrieval models. Moreover, current researches on adversarial training for deep hashing are hard to be formalized into a unified minimax structure. In this paper, we explore Semantic-Aware Adversarial Training (SAAT) for improving the adversarial robustness of deep hashing models. Specifically, we conceive a discriminative mainstay features learning (DMFL) scheme to construct semantic representatives for guiding adversarial learning in deep hashing. Particularly, our DMFL with the strict theoretical guarantee is adaptively optimized in a discriminative learning manner, where both discriminative and semantic properties are jointly considered. Moreover, adversarial examples are fabricated by maximizing the Hamming distance between the hash codes of adversarial samples and mainstay features, the efficacy of which is validated in the adversarial attack trials. Further, we, for the first time, formulate the formalized adversarial training of deep hashing into a unified minimax optimization under the guidance of the generated mainstay codes. Extensive experiments on benchmark datasets show superb attack performance against the state-of-the-art algorithms, meanwhile, the proposed adversarial training can effectively eliminate adversarial perturbations for trustworthy deep hashing-based retrieval. Our code is available at https://github.com/xandery-geek/SAAT.
- Abstract(参考訳): ディープハッシュは、その効率性と有効性から、大規模画像検索システムにおいて集中的に研究され、成功している。
近年の研究では、敵の例の存在は、深いハッシュモデル、すなわち敵の脆弱性に対するセキュリティ上の脅威をもたらすと認識されている。
特に、ディープハッシュのための信頼性のあるセマンティックな表現を効率的に蒸留し、敵対的学習を誘導することは、ディープハッシュに基づく検索モデルの敵的ロバスト性の向上を妨げる。
さらに, 深部ハッシュの対角訓練に関する最近の研究は, 統一されたミニマックス構造に定式化することは困難である。
本稿では,深部ハッシュモデルの対角的堅牢性を向上させるために,セマンティック・アウェア・アドバサリアル・トレーニング(SAAT)について検討する。
具体的には、深いハッシュにおいて敵対的学習を導くための意味表現を構成するために、識別的主観的特徴学習(DMFL)方式を考案する。
特に、厳密な理論的保証を持つDMFLは、識別的・意味的特性を共に考慮した識別的学習方法で適応的に最適化される。
また、敵のサンプルのハッシュコードとメインステイ特徴とのハミング距離を最大化して敵の例を作成し、その効果を敵の攻撃試験で検証した。
さらに、我々は、生成したメインステイ符号の誘導の下で、ディープハッシュの形式化された対角訓練を統一されたミニマックス最適化に初めて定式化する。
ベンチマークデータセットの大規模な実験では、最先端のアルゴリズムに対する超高速な攻撃性能を示す一方で、提案した敵のトレーニングは、信頼できる深いハッシュベースの検索のための敵の摂動を効果的に排除することができる。
私たちのコードはhttps://github.com/xandery-geek/SAAT.comで公開されています。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Reliable and Efficient Evaluation of Adversarial Robustness for Deep
Hashing-Based Retrieval [20.3473596316839]
PgAと呼ばれる新しいファロス誘導攻撃を提案し、深層ハッシュネットワークの対角的堅牢性を確実かつ効率的に評価する。
PgAは、逆例のハッシュコードとファロスコードとの類似性を最大化することにより、ディープハッシュベースの検索に対する信頼性が高く効率的な攻撃を行うことができる。
論文 参考訳(メタデータ) (2023-03-22T15:36:19Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。