論文の概要: Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval
- arxiv url: http://arxiv.org/abs/2310.14637v1
- Date: Mon, 23 Oct 2023 07:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 21:48:00.685308
- Title: Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval
- Title(参考訳): 信頼できるディープハッシュ検索のためのセマンティクスアウェア・アドバーサリートレーニング
- Authors: Xu Yuan, Zheng Zhang, Xunguang Wang, Lin Wu
- Abstract要約: 敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
- 参考スコア(独自算出の注目度): 28.593939627045426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing has been intensively studied and successfully applied in
large-scale image retrieval systems due to its efficiency and effectiveness.
Recent studies have recognized that the existence of adversarial examples poses
a security threat to deep hashing models, that is, adversarial vulnerability.
Notably, it is challenging to efficiently distill reliable semantic
representatives for deep hashing to guide adversarial learning, and thereby it
hinders the enhancement of adversarial robustness of deep hashing-based
retrieval models. Moreover, current researches on adversarial training for deep
hashing are hard to be formalized into a unified minimax structure. In this
paper, we explore Semantic-Aware Adversarial Training (SAAT) for improving the
adversarial robustness of deep hashing models. Specifically, we conceive a
discriminative mainstay features learning (DMFL) scheme to construct semantic
representatives for guiding adversarial learning in deep hashing. Particularly,
our DMFL with the strict theoretical guarantee is adaptively optimized in a
discriminative learning manner, where both discriminative and semantic
properties are jointly considered. Moreover, adversarial examples are
fabricated by maximizing the Hamming distance between the hash codes of
adversarial samples and mainstay features, the efficacy of which is validated
in the adversarial attack trials. Further, we, for the first time, formulate
the formalized adversarial training of deep hashing into a unified minimax
optimization under the guidance of the generated mainstay codes. Extensive
experiments on benchmark datasets show superb attack performance against the
state-of-the-art algorithms, meanwhile, the proposed adversarial training can
effectively eliminate adversarial perturbations for trustworthy deep
hashing-based retrieval. Our code is available at
https://github.com/xandery-geek/SAAT.
- Abstract(参考訳): ディープハッシュは,その効率性と有効性から,大規模画像検索システムにおいて集中的に研究され,応用されている。
近年の研究では、敵の例の存在は、深いハッシュモデル、すなわち敵の脆弱性に対するセキュリティ上の脅威をもたらすと認識されている。
特に,ディープハッシュ化のための信頼性の高い意味表現を効率的に蒸留し,逆学習を導くことが困難であり,ディープハッシュに基づく検索モデルの逆ロバスト性の向上を阻害している。
さらに, 深部ハッシュの対角訓練に関する最近の研究は, 統一されたミニマックス構造に定式化することは困難である。
本稿では,深部ハッシュモデルの対角的堅牢性を向上させるために,セマンティック・アウェア・アドバサリアル・トレーニング(SAAT)を提案する。
具体的には,深いハッシュ処理において,敵意学習を導くための意味表現を構築するためのdmflスキームを考案する。
特に, 厳密な理論的保証を有するdmflは, 識別的性質と意味的性質を共に考慮した識別的学習方法で適応的に最適化されている。
また、敵のサンプルのハッシュコードとメインステイ特徴とのハミング距離を最大化して敵の例を作成し、その効果を敵の攻撃試験で検証した。
さらに,我々は初めて,生成されたメインステイ符号の指導の下で,ディープハッシュの形式化された逆訓練を統一ミニマックス最適化に定式化する。
ベンチマークデータセットにおける広範囲な実験は、最先端アルゴリズムに対するスーパーブ攻撃性能を示す一方で、提案された敵対的トレーニングは、信頼できるディープハッシュベース検索のための敵対的摂動を効果的に排除することができる。
私たちのコードはhttps://github.com/xandery-geek/saatで利用可能です。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Reliable and Efficient Evaluation of Adversarial Robustness for Deep
Hashing-Based Retrieval [20.3473596316839]
PgAと呼ばれる新しいファロス誘導攻撃を提案し、深層ハッシュネットワークの対角的堅牢性を確実かつ効率的に評価する。
PgAは、逆例のハッシュコードとファロスコードとの類似性を最大化することにより、ディープハッシュベースの検索に対する信頼性が高く効率的な攻撃を行うことができる。
論文 参考訳(メタデータ) (2023-03-22T15:36:19Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。