論文の概要: HRFA: High-Resolution Feature-based Attack
- arxiv url: http://arxiv.org/abs/2001.07631v2
- Date: Thu, 22 Oct 2020 13:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:27:10.464306
- Title: HRFA: High-Resolution Feature-based Attack
- Title(参考訳): HRFA:高解像度機能ベースの攻撃
- Authors: Zhixing Ye, Sizhe Chen, Peidong Zhang, Chengjin Sun, Xiaolin Huang
- Abstract要約: 本稿では,高分解能特徴ベース攻撃(HRFA)を提案する。
HRFAは、画像の潜伏した特徴表現、すなわち、被害者を通して伝播する後方勾配を変更することで攻撃を行う。
このようにして、HRFAは高解像度で現実的で、ノイズのない敵の例を生成し、そのため、いくつかのデノナイジング・リバーサベースの防御を回避できる。
- 参考スコア(独自算出の注目度): 13.972649234090007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have long been developed for revealing the vulnerability
of Deep Neural Networks (DNNs) by adding imperceptible perturbations to the
input. Most methods generate perturbations like normal noise, which is not
interpretable and without semantic meaning. In this paper, we propose
High-Resolution Feature-based Attack (HRFA), yielding authentic adversarial
examples with up to $1024 \times 1024$ resolution. HRFA exerts attack by
modifying the latent feature representation of the image, i.e., the gradients
back propagate not only through the victim DNN, but also through the generative
model that maps the feature space to the image space. In this way, HRFA
generates adversarial examples that are in high-resolution, realistic,
noise-free, and hence is able to evade several denoising-based defenses. In the
experiment, the effectiveness of HRFA is validated by attacking the object
classification and face verification tasks with BigGAN and StyleGAN,
respectively. The advantages of HRFA are verified from the high quality, high
authenticity, and high attack success rate faced with defenses.
- Abstract(参考訳): 敵対的攻撃は、入力に知覚不能な摂動を加えることによって、ディープニューラルネットワーク(DNN)の脆弱性を明らかにするために長い間開発されてきた。
ほとんどのメソッドは通常のノイズのような摂動を生成するが、それは解釈可能ではなく意味的な意味を持たない。
本稿では,高分解能特徴ベース攻撃(HRFA)を提案する。
HRFAは、画像の潜在特徴表現、すなわち、勾配が被害者のDNNを介して伝播するだけでなく、特徴空間を画像空間にマッピングする生成モデルを通じて攻撃を行う。
このようにhrfaは、高分解能、現実的、ノイズフリーな逆の例を生成し、それゆえ複数のノイズベースの防御を回避できる。
実験では, HRFAの有効性を, BigGAN と StyleGAN を用いて対象分類と顔検証タスクをそれぞれ攻撃することによって検証した。
HRFAの利点は、高い品質、高い信頼性、高い攻撃成功率から検証される。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。