論文の概要: ALA: Naturalness-aware Adversarial Lightness Attack
- arxiv url: http://arxiv.org/abs/2201.06070v2
- Date: Sat, 14 Oct 2023 10:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:20:48.094279
- Title: ALA: Naturalness-aware Adversarial Lightness Attack
- Title(参考訳): ALA:自然界を意識した対光攻撃
- Authors: Yihao Huang, Liangru Sun, Qing Guo, Felix Juefei-Xu, Jiayi Zhu, Jincao
Feng, Yang Liu, Geguang Pu
- Abstract要約: 逆光攻撃(英語: Adversarial Lightness Attack、ALA)は、画像の明度を変更することに焦点を当てた非制限逆光攻撃である。
画像の自然性を高めるため、光の範囲と分布に応じて自然性を考慮した正規化を行う。
- 参考スコア(独自算出の注目度): 21.732632360335895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most researchers have tried to enhance the robustness of DNNs by revealing
and repairing the vulnerability of DNNs with specialized adversarial examples.
Parts of the attack examples have imperceptible perturbations restricted by Lp
norm. However, due to their high-frequency property, the adversarial examples
can be defended by denoising methods and are hard to realize in the physical
world. To avoid the defects, some works have proposed unrestricted attacks to
gain better robustness and practicality. It is disappointing that these
examples usually look unnatural and can alert the guards. In this paper, we
propose Adversarial Lightness Attack (ALA), a white-box unrestricted
adversarial attack that focuses on modifying the lightness of the images. The
shape and color of the samples, which are crucial to human perception, are
barely influenced. To obtain adversarial examples with a high attack success
rate, we propose unconstrained enhancement in terms of the light and shade
relationship in images. To enhance the naturalness of images, we craft the
naturalness-aware regularization according to the range and distribution of
light. The effectiveness of ALA is verified on two popular datasets for
different tasks (i.e., ImageNet for image classification and Places-365 for
scene recognition).
- Abstract(参考訳): ほとんどの研究者は、DNNの脆弱性を特殊な逆例で明らかにし、修復することで、DNNの堅牢性を高めようとしてきた。
攻撃例の一部にはLpノルムに制限された知覚できない摂動がある。
しかし、その高周波性から、その逆の例は消音法によって防御され、物理的世界では実現しにくい。
欠陥を避けるために、いくつかの研究はより堅牢で実用性の高い攻撃を提案している。
これらの例が通常不自然に見え、警備員に警告できることは残念である。
本稿では,画像の光度変化に着目したホワイトボックスの非拘束型光度攻撃であるadversarial lightness attack (ala)を提案する。
人間の知覚に不可欠なサンプルの形状と色は、ほとんど影響を受けない。
攻撃成功率の高い敵対的例を得るため,画像中の光と陰影の関係の観点から,制約のない拡張を提案する。
画像の自然性を高めるため,光の範囲や分布に応じて自然性認識正規化を行う。
ALAの有効性は、異なるタスクのための2つの一般的なデータセット(画像分類のためのImageNetとシーン認識のためのPlaces-365)で検証される。
関連論文リスト
- Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Demiguise Attack: Crafting Invisible Semantic Adversarial Perturbations
with Perceptual Similarity [5.03315505352304]
敵対的な例は、視覚的に知覚できない摂動を持つ悪意のあるイメージである。
我々は、知覚的類似性による非制限の摂動を創りだすデミガイズアタックを提案する。
我々のアプローチでは、広く利用されている攻撃を拡大し、敵に対する効果を著しく高めつつ、認識不能に寄与する。
論文 参考訳(メタデータ) (2021-07-03T10:14:01Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。