論文の概要: Adversarial Camouflage: Hiding Physical-World Attacks with Natural
Styles
- arxiv url: http://arxiv.org/abs/2003.08757v2
- Date: Mon, 22 Jun 2020 05:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:33:12.512146
- Title: Adversarial Camouflage: Hiding Physical-World Attacks with Natural
Styles
- Title(参考訳): 逆カモフラージュ:自然スタイルの物理世界攻撃を抑える
- Authors: Ranjie Duan, Xingjun Ma, Yisen Wang, James Bailey, A. K. Qin, Yun Yang
- Abstract要約: そこで我々は,人間の観察者にとって正当な自然スタイルへの,工芸とカモフラージュの物理世界敵の新たなアプローチを提案する。
emphAdvCamは、ディープラーニングシステムによって個人情報が検出されるのを防ぐためにも使用できる。
- 参考スコア(独自算出の注目度): 40.57099683047126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are known to be vulnerable to adversarial
examples. Existing works have mostly focused on either digital adversarial
examples created via small and imperceptible perturbations, or physical-world
adversarial examples created with large and less realistic distortions that are
easily identified by human observers. In this paper, we propose a novel
approach, called Adversarial Camouflage (\emph{AdvCam}), to craft and
camouflage physical-world adversarial examples into natural styles that appear
legitimate to human observers. Specifically, \emph{AdvCam} transfers large
adversarial perturbations into customized styles, which are then "hidden"
on-target object or off-target background. Experimental evaluation shows that,
in both digital and physical-world scenarios, adversarial examples crafted by
\emph{AdvCam} are well camouflaged and highly stealthy, while remaining
effective in fooling state-of-the-art DNN image classifiers. Hence,
\emph{AdvCam} is a flexible approach that can help craft stealthy attacks to
evaluate the robustness of DNNs. \emph{AdvCam} can also be used to protect
private information from being detected by deep learning systems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例に弱いことが知られている。
既存の作品は主に、小さくて知覚できない摂動によって作られたデジタル敵の例や、人間の観察者によって容易に識別される大きくて現実的でない歪みで作られた物理世界の敵の例に焦点が当てられている。
本稿では,人間の観察者にとって正当と思われる自然スタイルに物理世界の逆転例を製作し,模擬する手法であるAdversarial Camouflage(\emph{AdvCam})を提案する。
具体的には、 \emph{AdvCam} は大きな逆転摂動をカスタマイズされたスタイルに転送し、ターゲットのオブジェクトやターゲット外のバックグラウンドを "隠蔽" する。
実験的評価は、デジタルと物理の両方のシナリオにおいて、 \emph{AdvCam} によって製作された敵の例は、十分にカモフラージュされ、非常にステルス的でありながら、最先端のDNN画像分類器を騙すことに有効であることを示している。
したがって、 \emph{AdvCam} は、DNNの堅牢性を評価するためにステルス攻撃を仕掛ける柔軟なアプローチである。
\emph{AdvCam}は、ディープラーニングシステムによって検出されるプライベート情報を保護するためにも使用できる。
関連論文リスト
- Imperceptible Adversarial Examples in the Physical World [10.981325924844167]
我々は、ストレートスルー推定器(STE、別名BPDA)を用いて、物理世界における敵対例を知覚できないものにする。
我々のSTEのレンダリング拡張は、物理的世界における知覚できない敵パッチも可能にします。
我々の知る限りでは、これは物理的世界の小さな規範に縛られた、知覚できない敵の例を示す最初の作品である。
論文 参考訳(メタデータ) (2024-11-25T18:02:23Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Demiguise Attack: Crafting Invisible Semantic Adversarial Perturbations
with Perceptual Similarity [5.03315505352304]
敵対的な例は、視覚的に知覚できない摂動を持つ悪意のあるイメージである。
我々は、知覚的類似性による非制限の摂動を創りだすデミガイズアタックを提案する。
我々のアプローチでは、広く利用されている攻撃を拡大し、敵に対する効果を著しく高めつつ、認識不能に寄与する。
論文 参考訳(メタデータ) (2021-07-03T10:14:01Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Dual Attention Suppression Attack: Generate Adversarial Camouflage in
Physical World [33.63565658548095]
本稿では,認識過程の本質的な特徴に注意が反映されるという観点から,二重注意抑制(DAS)攻撃を提案する。
モデルを共有する類似の注意パターンをターゲットから非ターゲット領域に気を散らすことで、移動可能な逆カモフラージュを生成します。
人間の視覚の注意が常にサルエントなアイテムに焦点を当てているという事実に基づいて、人間特有のボトムアップの注意を回避し、視覚的に自然なカモフラージュを生成する。
論文 参考訳(メタデータ) (2021-03-01T14:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。