論文の概要: ALA: Adversarial Lightness Attack via Naturalness-aware Regularizations
- arxiv url: http://arxiv.org/abs/2201.06070v1
- Date: Sun, 16 Jan 2022 15:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-01-19 13:30:29.264698
- Title: ALA: Adversarial Lightness Attack via Naturalness-aware Regularizations
- Title(参考訳): ALA:自然度認識規則化による逆光度攻撃
- Authors: Liangru Sun, Felix Juefei-Xu, Yihao Huang, Qing Guo, Jiayi Zhu, Jincao
Feng, Yang Liu, Geguang Pu
- Abstract要約: 逆光攻撃(英語: Adversarial Lightness Attack、ALA)は、画像の明度を変更することに焦点を当てた非制限逆光攻撃である。
ALAは、高い画質と優れた転送性を持つ逆例を生成する。
ALAはまた、汚職を保護するためにトレーニングされた標準のResNet50を改善するのに役立つ。
- 参考スコア(独自算出の注目度): 16.1113773916041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most researchers have tried to enhance the robustness of deep neural networks
(DNNs) by revealing and repairing the vulnerability of DNNs with specialized
adversarial examples. Parts of the attack examples have imperceptible
perturbations restricted by Lp norm. However, due to their high-frequency
property, the adversarial examples usually have poor transferability and can be
defensed by denoising methods. To avoid the defects, some works make the
perturbations unrestricted to gain better robustness and transferability.
However, these examples usually look unnatural and alert the guards. To
generate unrestricted adversarial examples with high image quality and good
transferability, in this paper, we propose Adversarial Lightness Attack (ALA),
a white-box unrestricted adversarial attack that focuses on modifying the
lightness of the images. The shape and color of the samples, which are crucial
to human perception, are barely influenced. To obtain adversarial examples with
high image quality, we craft a naturalness-aware regularization. To achieve
stronger transferability, we propose random initialization and non-stop attack
strategy in the attack procedure. We verify the effectiveness of ALA on two
popular datasets for different tasks (i.e., ImageNet for image classification
and Places-365 for scene recognition). The experiments show that the generated
adversarial examples have both strong transferability and high image quality.
Besides, the adversarial examples can also help to improve the standard trained
ResNet50 on defending lightness corruption.
- Abstract(参考訳): ほとんどの研究者は、DNNの脆弱性を特殊な逆の例で明らかにし、修復することで、ディープニューラルネットワーク(DNN)の堅牢性を高めようとした。
攻撃例の一部にはLpノルムに制限された知覚できない摂動がある。
しかし、その高周波特性のため、逆の例は通常転送性が悪く、消音法によって防御できる。
欠陥を避けるために、いくつかの作品によっては摂動を制限せず、より堅牢で転送性が向上している。
しかし、これらの例は通常不自然に見え、警備員に警告する。
本稿では,高画質かつ高い転送性を有する非制限対向例を生成するために,画像の明度変更に焦点をあてたホワイトボックス非制限対向攻撃であるAdversarial Lightness Attack (ALA)を提案する。
人間の知覚に不可欠なサンプルの形状と色は、ほとんど影響を受けない。
画像品質の高い逆例を得るため,自然性認識正規化を行う。
移動性を高めるために,攻撃手順におけるランダム初期化とノンストップ攻撃戦略を提案する。
画像分類のためのImageNetとシーン認識のためのPlaces-365の2つの一般的なデータセットに対するALAの有効性を検証する。
実験の結果, 生成した逆方向の例は, 強い伝達性と高い画質を有することがわかった。
さらに、敵の例は、輝度の破損を保護するためにトレーニングされた標準のResNet50を改善するのにも役立ちます。
関連論文リスト
- Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Demiguise Attack: Crafting Invisible Semantic Adversarial Perturbations
with Perceptual Similarity [5.03315505352304]
敵対的な例は、視覚的に知覚できない摂動を持つ悪意のあるイメージである。
我々は、知覚的類似性による非制限の摂動を創りだすデミガイズアタックを提案する。
我々のアプローチでは、広く利用されている攻撃を拡大し、敵に対する効果を著しく高めつつ、認識不能に寄与する。
論文 参考訳(メタデータ) (2021-07-03T10:14:01Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。