論文の概要: Reverse Engineering of Imperceptible Adversarial Image Perturbations
- arxiv url: http://arxiv.org/abs/2203.14145v1
- Date: Sat, 26 Mar 2022 19:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 23:52:34.125927
- Title: Reverse Engineering of Imperceptible Adversarial Image Perturbations
- Title(参考訳): 不可避逆画像摂動のリバースエンジニアリング
- Authors: Yifan Gong, Yuguang Yao, Yize Li, Yimeng Zhang, Xiaoming Liu, Xue Lin,
Sijia Liu
- Abstract要約: REDの問題を形式化し、REDのアプローチ設計に不可欠な原則のセットを特定します。
そこで我々は,CDD-RED と呼ばれる新しいクラス識別型Denoising RED フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.87341855153572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been well recognized that neural network based image classifiers are
easily fooled by images with tiny perturbations crafted by an adversary. There
has been a vast volume of research to generate and defend such adversarial
attacks. However, the following problem is left unexplored: How to
reverse-engineer adversarial perturbations from an adversarial image? This
leads to a new adversarial learning paradigm--Reverse Engineering of Deceptions
(RED). If successful, RED allows us to estimate adversarial perturbations and
recover the original images. However, carefully crafted, tiny adversarial
perturbations are difficult to recover by optimizing a unilateral RED
objective. For example, the pure image denoising method may overfit to
minimizing the reconstruction error but hardly preserve the classification
properties of the true adversarial perturbations. To tackle this challenge, we
formalize the RED problem and identify a set of principles crucial to the RED
approach design. Particularly, we find that prediction alignment and proper
data augmentation (in terms of spatial transformations) are two criteria to
achieve a generalizable RED approach. By integrating these RED principles with
image denoising, we propose a new Class-Discriminative Denoising based RED
framework, termed CDD-RED. Extensive experiments demonstrate the effectiveness
of CDD-RED under different evaluation metrics (ranging from the pixel-level,
prediction-level to the attribution-level alignment) and a variety of attack
generation methods (e.g., FGSM, PGD, CW, AutoAttack, and adaptive attacks).
- Abstract(参考訳): ニューラルネットワークに基づく画像分類器は、敵が作り出した小さな摂動を持つ画像によって容易に騙されることがよく認識されている。
このような敵対的な攻撃を発生し、防御するための膨大な研究がある。
しかし、次の問題は未解決のままである: 敵のイメージから敵の摂動をリバースエンジニアリングする方法?
これは新たな逆学習パラダイム、-Reverse Engineering of Deceptions (RED)につながります。
成功すれば、赤は敵の摂動を推定し、元の画像を復元できます。
しかし、一方のRED目標を最適化することで、慎重に製作された小さな対向摂動を回復することは困難である。
例えば、純粋な画像復調法は、再構成誤差を最小限に抑えるのに過度に適合するが、真の対向摂動の分類特性をほとんど保持しない。
この課題に取り組むために、REDの問題を形式化し、REDのアプローチ設計に不可欠な原則のセットを特定します。
特に、予測アライメントと(空間変換の観点から)適切なデータ拡張は、一般化可能なREDアプローチを実現するための2つの基準であることがわかった。
REDの原則をイメージデノーミングと統合することにより,CDD-REDと呼ばれる新たなクラス識別デノナイズベースのREDフレームワークを提案する。
大規模な実験では、異なる評価指標(ピクセルレベル、予測レベルから属性レベルへのアライメント)と様々なアタック生成方法(FGSM、PGD、CW、AutoAttack、アダプティブアタックなど)の下でCDD-REDの有効性を示す。
関連論文リスト
- LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - SFANet: A Spectrum-aware Feature Augmentation Network for
Visible-Infrared Person Re-Identification [12.566284647658053]
クロスモダリティマッチング問題に対するSFANetという新しいスペクトル認識特徴量化ネットワークを提案する。
grayscale-spectrumイメージで学習すると、モダリティの不一致を低減し、内部構造関係を検出することができる。
特徴レベルでは、特定および粉砕可能な畳み込みブロックの数のバランスをとることにより、従来の2ストリームネットワークを改善します。
論文 参考訳(メタデータ) (2021-02-24T08:57:32Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space [43.49959098842923]
ホワイトボックス攻撃では、RGB画像上で動作する深いモデルに対して、逆方向の摂動が一般的に学習される。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
そこで本研究では,敵画像に対する防御法を提案する。
論文 参考訳(メタデータ) (2020-02-25T02:41:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。