論文の概要: Dual Attention Suppression Attack: Generate Adversarial Camouflage in
Physical World
- arxiv url: http://arxiv.org/abs/2103.01050v1
- Date: Mon, 1 Mar 2021 14:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:32:37.054561
- Title: Dual Attention Suppression Attack: Generate Adversarial Camouflage in
Physical World
- Title(参考訳): 二重注意抑制攻撃 : 物理的世界における逆境カモフラージュの発生
- Authors: Jiakai Wang, Aishan Liu, Zixin Yin, Shunchang Liu, Shiyu Tang, and
Xianglong Liu
- Abstract要約: 本稿では,認識過程の本質的な特徴に注意が反映されるという観点から,二重注意抑制(DAS)攻撃を提案する。
モデルを共有する類似の注意パターンをターゲットから非ターゲット領域に気を散らすことで、移動可能な逆カモフラージュを生成します。
人間の視覚の注意が常にサルエントなアイテムに焦点を当てているという事実に基づいて、人間特有のボトムアップの注意を回避し、視覚的に自然なカモフラージュを生成する。
- 参考スコア(独自算出の注目度): 33.63565658548095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are vulnerable to adversarial examples. As a more
threatening type for practical deep learning systems, physical adversarial
examples have received extensive research attention in recent years. However,
without exploiting the intrinsic characteristics such as model-agnostic and
human-specific patterns, existing works generate weak adversarial perturbations
in the physical world, which fall short of attacking across different models
and show visually suspicious appearance. Motivated by the viewpoint that
attention reflects the intrinsic characteristics of the recognition process,
this paper proposes the Dual Attention Suppression (DAS) attack to generate
visually-natural physical adversarial camouflages with strong transferability
by suppressing both model and human attention. As for attacking, we generate
transferable adversarial camouflages by distracting the model-shared similar
attention patterns from the target to non-target regions. Meanwhile, based on
the fact that human visual attention always focuses on salient items (e.g.,
suspicious distortions), we evade the human-specific bottom-up attention to
generate visually-natural camouflages which are correlated to the scenario
context. We conduct extensive experiments in both the digital and physical
world for classification and detection tasks on up-to-date models (e.g.,
Yolo-V5) and significantly demonstrate that our method outperforms
state-of-the-art methods.
- Abstract(参考訳): ディープラーニングモデルは、敵の例に弱い。
実用的なディープラーニングシステムのより脅威的なタイプとして、身体的な逆転例は、近年広範な研究の注目を集めています。
しかし、モデル非依存や人間特有のパターンのような本質的な特徴を生かさずに、既存の作品は、異なるモデルへの攻撃や視覚的に不審な外観に欠ける、物理的な世界での弱い敵対的な摂動を引き起こす。
本稿では,認識過程の本質的特徴に注意が反映されるという視点に動機づけられ,モデルと人間の双方の注意を抑圧することにより,視覚・自然の物理的カモフラージュを生成できるdual attention suppression(das)攻撃を提案する。
攻撃に関しては,対象領域から非対象領域へのモデル共有類似の注意パターンを逸脱させることで,移動可能な対向カモフラージュを生成する。
一方,人間の視覚的注意が常に突出した項目(例えば不審な歪み)に焦点を当てているという事実から,人間特有のボトムアップ的注意を回避し,シナリオコンテキストに関連付けられた視覚的・自然的な迷彩を生成する。
最新のモデル(例えば、Yolo-V5)の分類および検出タスクにおいて、ディジタル世界と物理世界の両方で広範な実験を行い、我々の手法が最先端の手法よりも優れていることを示す。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Human Eyes Inspired Recurrent Neural Networks are More Robust Against Adversarial Noises [7.689542442882423]
我々は人間の脳にインスパイアされたデュアルストリーム視覚モデルを設計した。
このモデルは網膜のような入力層を特徴とし、次の焦点(固定点)を決定する2つのストリームと、固定点を取り巻く視覚を解釈する2つのストリームを含む。
このモデルを,物体認識,視線行動,対向強靭性の観点から評価した。
論文 参考訳(メタデータ) (2022-06-15T03:44:42Z) - Transferable Physical Attack against Object Detection with Separable
Attention [14.805375472459728]
ディープラーニングモデルは、敵のサンプルに弱いことが証明されているため、トランスファー可能な敵攻撃は常に注目されている。
本稿では,物理的に実現可能な逆カモフラージュを生成する新しい手法を提案し,検出モデルに対するトランスファー可能な攻撃を実現する。
論文 参考訳(メタデータ) (2022-05-19T14:34:55Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。