論文の概要: Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing
- arxiv url: http://arxiv.org/abs/2105.07553v1
- Date: Mon, 17 May 2021 00:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:29:34.233832
- Title: Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing
- Title(参考訳): ディープハッシュ攻撃を標的としたadversarial networkの試作
- Authors: Xunguang Wang, Zheng Zhang, Baoyuan Wu, Fumin Shen, Guangming Lu
- Abstract要約: ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
- 参考スコア(独自算出の注目度): 65.32148145602865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to its powerful capability of representation learning and high-efficiency
computation, deep hashing has made significant progress in large-scale image
retrieval. However, deep hashing networks are vulnerable to adversarial
examples, which is a practical secure problem but seldom studied in
hashing-based retrieval field. In this paper, we propose a novel
prototype-supervised adversarial network (ProS-GAN), which formulates a
flexible generative architecture for efficient and effective targeted hashing
attack. To the best of our knowledge, this is the first generation-based method
to attack deep hashing networks. Generally, our proposed framework consists of
three parts, i.e., a PrototypeNet, a generator, and a discriminator.
Specifically, the designed PrototypeNet embeds the target label into the
semantic representation and learns the prototype code as the category-level
representative of the target label. Moreover, the semantic representation and
the original image are jointly fed into the generator for a flexible targeted
attack. Particularly, the prototype code is adopted to supervise the generator
to construct the targeted adversarial example by minimizing the Hamming
distance between the hash code of the adversarial example and the prototype
code. Furthermore, the generator is against the discriminator to simultaneously
encourage the adversarial examples visually realistic and the semantic
representation informative. Extensive experiments verify that the proposed
framework can efficiently produce adversarial examples with better targeted
attack performance and transferability over state-of-the-art targeted attack
methods of deep hashing. The related codes could be available at
https://github.com/xunguangwang/ProS-GAN .
- Abstract(参考訳): 表現学習と高能率計算の強力な能力により、大規模画像検索において大きな進歩を遂げた。
しかし、深いハッシュネットワークは、現実的な安全な問題であるがハッシュベースの検索分野ではほとんど研究されない敵の例に弱い。
本稿では,効率的な標的ハッシュ攻撃のためのフレキシブルな生成アーキテクチャを定式化した,プロトタイプ型教師付き対向ネットワーク(ProS-GAN)を提案する。
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
提案するフレームワークは一般に,プロトタイプネット,ジェネレータ,識別器という3つの部分から構成される。
具体的には、設計したPrototypeNetがターゲットラベルをセマンティック表現に埋め込み、ターゲットラベルのカテゴリレベル代表としてプロトタイプコードを学ぶ。
さらに、フレキシブルな標的攻撃のために、意味表現と原画像とを共同でジェネレータに供給する。
特に、原型コードは、原型サンプルのハッシュコードと原型コードとのハミング距離を最小化して、原型サンプルを構築するためのジェネレータを監督するために採用される。
さらに、ジェネレータは、相手の例を視覚的にリアルに、意味表現を情報化するように同時に促す判別器に反する。
大規模実験により,提案フレームワークは,最先端の攻撃手法であるディープハッシュに対して,攻撃性能と伝達性を向上した敵例を効率よく生成できることを確認した。
関連コードはhttps://github.com/xunguangwang/ProS-GAN で入手できる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval [26.17466361744519]
敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
論文 参考訳(メタデータ) (2023-10-23T07:21:40Z) - Reliable and Efficient Evaluation of Adversarial Robustness for Deep
Hashing-Based Retrieval [20.3473596316839]
PgAと呼ばれる新しいファロス誘導攻撃を提案し、深層ハッシュネットワークの対角的堅牢性を確実かつ効率的に評価する。
PgAは、逆例のハッシュコードとファロスコードとの類似性を最大化することにより、ディープハッシュベースの検索に対する信頼性が高く効率的な攻撃を行うことができる。
論文 参考訳(メタデータ) (2023-03-22T15:36:19Z) - BadHash: Invisible Backdoor Attacks against Deep Hashing with Clean
Label [20.236328601459203]
本稿では,BadHashを提案する。
我々は、BadHashが、最先端のディープハッシュ方式よりも強力な攻撃能力と転送性を持つ、知覚不能な有毒なサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:10:25Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。