論文の概要: Centralized Adversarial Learning for Robust Deep Hashing
- arxiv url: http://arxiv.org/abs/2204.10779v1
- Date: Mon, 18 Apr 2022 04:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-01 08:51:49.270456
- Title: Centralized Adversarial Learning for Robust Deep Hashing
- Title(参考訳): ロバストディープハッシュのための集中型対向学習
- Authors: Xunguang Wang, Xu Yuan, Zheng Zhang, Guangming Lu, Xiaomeng Li
- Abstract要約: 我々は、ハッシュネットワークの堅牢性を改善するために、min-maxパラダイムを用いた効果的な対向学習を設計する。
一方、防衛のためのハッシュネットワークを最適化するために、Deep Hashing Central Adversarial Training (DHCAT)を提示する。
攻撃手法は最先端技術よりも優れた性能を達成でき、防御アルゴリズムは敵の摂動の影響を効果的に軽減することができる。
- 参考スコア(独自算出の注目度): 46.75643066156426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing has been extensively utilized in massive image retrieval because
of its efficiency and effectiveness. Recently, it becomes a hot issue to study
adversarial examples which poses a security challenge to deep hashing models.
However, there is still a critical bottleneck: how to find a superior and exact
semantic representative as the guide to further enhance the adversarial attack
and defense in deep hashing based retrieval. We, for the first time, attempt to
design an effective adversarial learning with the min-max paradigm to improve
the robustness of hashing networks by using the generated adversarial samples.
Specifically, we obtain the optimal solution (called center code) through a
proved Continuous Hash Center Method (CHCM), which preserves the semantic
similarity with positive samples and dissimilarity with negative samples. On
one hand, we propose the Deep Hashing Central Attack (DHCA) for efficient
attack on hashing retrieval by maximizing the Hamming distance between the hash
code of adversarial example and the center code. On the other hand, we present
the Deep Hashing Central Adversarial Training (DHCAT) to optimize the hashing
networks for defense, by minimizing the Hamming distance to the center code.
Extensive experiments on the benchmark datasets verify that our attack method
can achieve better performance than the state-of-the-arts, and our defense
algorithm can effectively mitigate the effects of adversarial perturbations.
- Abstract(参考訳): ディープハッシュは、その効率性と有効性のため、大規模な画像検索に広く利用されている。
近年、深いハッシュモデルにセキュリティ上の課題をもたらす敵の事例を研究することがホットな問題となっている。
しかし、依然として重要なボトルネックがある: 深いハッシュに基づく検索において、敵の攻撃と防御をさらに強化するためのガイドとして、優れた正確な意味的代表者を見つける方法。
我々は初めてmin-maxパラダイムを用いた効果的な対向学習をデザインし,生成した対向サンプルを用いてハッシュネットワークのロバスト性を向上させることを試みた。
具体的には, 正のサンプルと意味的類似性, 負のサンプルとの類似性を保持する連続ハッシュ中心法(chcm)により, 最適解(中心符号と呼ばれる)を得る。
本稿では,攻撃例のハッシュコードと中心コードとの間のハミング距離を最大化することにより,ハッシュ検索に対する効率的な攻撃を行うためのディープ・ハッシング・セントラル・アタック(dhca)を提案する。
一方,本研究では,中央コードへのハミング距離を最小化することにより,防御のためのハッシュネットワークを最適化するためのDHCAT(Deep Hashing Central Adversarial Training)を提案する。
ベンチマークデータセットに関する広範囲な実験により,攻撃手法が最先端技術よりも優れた性能を達成できることが検証され,防御アルゴリズムは逆摂動の効果を効果的に軽減することができる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval [26.17466361744519]
敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
論文 参考訳(メタデータ) (2023-10-23T07:21:40Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Reliable and Efficient Evaluation of Adversarial Robustness for Deep
Hashing-Based Retrieval [20.3473596316839]
PgAと呼ばれる新しいファロス誘導攻撃を提案し、深層ハッシュネットワークの対角的堅牢性を確実かつ効率的に評価する。
PgAは、逆例のハッシュコードとファロスコードとの類似性を最大化することにより、ディープハッシュベースの検索に対する信頼性が高く効率的な攻撃を行うことができる。
論文 参考訳(メタデータ) (2023-03-22T15:36:19Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。