論文の概要: ALA: Adversarial Lightness Attack via Naturalness-aware Regularizations
- arxiv url: http://arxiv.org/abs/2201.06070v1
- Date: Sun, 16 Jan 2022 15:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:30:29.264698
- Title: ALA: Adversarial Lightness Attack via Naturalness-aware Regularizations
- Title(参考訳): ALA:自然度認識規則化による逆光度攻撃
- Authors: Liangru Sun, Felix Juefei-Xu, Yihao Huang, Qing Guo, Jiayi Zhu, Jincao
Feng, Yang Liu, Geguang Pu
- Abstract要約: 逆光攻撃(英語: Adversarial Lightness Attack、ALA)は、画像の明度を変更することに焦点を当てた非制限逆光攻撃である。
ALAは、高い画質と優れた転送性を持つ逆例を生成する。
ALAはまた、汚職を保護するためにトレーニングされた標準のResNet50を改善するのに役立つ。
- 参考スコア(独自算出の注目度): 16.1113773916041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most researchers have tried to enhance the robustness of deep neural networks
(DNNs) by revealing and repairing the vulnerability of DNNs with specialized
adversarial examples. Parts of the attack examples have imperceptible
perturbations restricted by Lp norm. However, due to their high-frequency
property, the adversarial examples usually have poor transferability and can be
defensed by denoising methods. To avoid the defects, some works make the
perturbations unrestricted to gain better robustness and transferability.
However, these examples usually look unnatural and alert the guards. To
generate unrestricted adversarial examples with high image quality and good
transferability, in this paper, we propose Adversarial Lightness Attack (ALA),
a white-box unrestricted adversarial attack that focuses on modifying the
lightness of the images. The shape and color of the samples, which are crucial
to human perception, are barely influenced. To obtain adversarial examples with
high image quality, we craft a naturalness-aware regularization. To achieve
stronger transferability, we propose random initialization and non-stop attack
strategy in the attack procedure. We verify the effectiveness of ALA on two
popular datasets for different tasks (i.e., ImageNet for image classification
and Places-365 for scene recognition). The experiments show that the generated
adversarial examples have both strong transferability and high image quality.
Besides, the adversarial examples can also help to improve the standard trained
ResNet50 on defending lightness corruption.
- Abstract(参考訳): ほとんどの研究者は、DNNの脆弱性を特殊な逆の例で明らかにし、修復することで、ディープニューラルネットワーク(DNN)の堅牢性を高めようとした。
攻撃例の一部にはLpノルムに制限された知覚できない摂動がある。
しかし、その高周波特性のため、逆の例は通常転送性が悪く、消音法によって防御できる。
欠陥を避けるために、いくつかの作品によっては摂動を制限せず、より堅牢で転送性が向上している。
しかし、これらの例は通常不自然に見え、警備員に警告する。
本稿では,高画質かつ高い転送性を有する非制限対向例を生成するために,画像の明度変更に焦点をあてたホワイトボックス非制限対向攻撃であるAdversarial Lightness Attack (ALA)を提案する。
人間の知覚に不可欠なサンプルの形状と色は、ほとんど影響を受けない。
画像品質の高い逆例を得るため,自然性認識正規化を行う。
移動性を高めるために,攻撃手順におけるランダム初期化とノンストップ攻撃戦略を提案する。
画像分類のためのImageNetとシーン認識のためのPlaces-365の2つの一般的なデータセットに対するALAの有効性を検証する。
実験の結果, 生成した逆方向の例は, 強い伝達性と高い画質を有することがわかった。
さらに、敵の例は、輝度の破損を保護するためにトレーニングされた標準のResNet50を改善するのにも役立ちます。
関連論文リスト
- Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Towards Transferable Unrestricted Adversarial Examples with Minimum
Changes [13.75751221823941]
転送ベースの敵の例はブラックボックス攻撃の最も重要なクラスの一つである。
対人摂動の伝達可能性と非受容性の間にはトレードオフがある。
最小限の変更を伴って転送可能な逆例を生成するための幾何対応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T12:03:20Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Demiguise Attack: Crafting Invisible Semantic Adversarial Perturbations
with Perceptual Similarity [5.03315505352304]
敵対的な例は、視覚的に知覚できない摂動を持つ悪意のあるイメージである。
我々は、知覚的類似性による非制限の摂動を創りだすデミガイズアタックを提案する。
我々のアプローチでは、広く利用されている攻撃を拡大し、敵に対する効果を著しく高めつつ、認識不能に寄与する。
論文 参考訳(メタデータ) (2021-07-03T10:14:01Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。