論文の概要: Object Hider: Adversarial Patch Attack Against Object Detectors
- arxiv url: http://arxiv.org/abs/2010.14974v1
- Date: Wed, 28 Oct 2020 13:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:39:50.616277
- Title: Object Hider: Adversarial Patch Attack Against Object Detectors
- Title(参考訳): Object Hider: オブジェクト検出器に対する逆パッチ攻撃
- Authors: Yusheng Zhao, Huanqian Yan, Xingxing Wei
- Abstract要約: 本稿では,現在最先端の物体検出モデルに対する敵攻撃に着目した。
現実的な代替手段として、攻撃には敵パッチを使用します。
実験の結果,提案手法は高い有効性,伝達性,汎用性を示した。
- 参考スコア(独自算出の注目度): 10.920696684006488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been widely used in many computer vision tasks.
However, it is proved that they are susceptible to small, imperceptible
perturbations added to the input. Inputs with elaborately designed
perturbations that can fool deep learning models are called adversarial
examples, and they have drawn great concerns about the safety of deep neural
networks. Object detection algorithms are designed to locate and classify
objects in images or videos and they are the core of many computer vision
tasks, which have great research value and wide applications. In this paper, we
focus on adversarial attack on some state-of-the-art object detection models.
As a practical alternative, we use adversarial patches for the attack. Two
adversarial patch generation algorithms have been proposed: the heatmap-based
algorithm and the consensus-based algorithm. The experiment results have shown
that the proposed methods are highly effective, transferable and generic.
Additionally, we have applied the proposed methods to competition "Adversarial
Challenge on Object Detection" that is organized by Alibaba on the Tianchi
platform and won top 7 in 1701 teams. Code is available at:
https://github.com/FenHua/DetDak
- Abstract(参考訳): ディープニューラルネットワークは多くのコンピュータビジョンタスクで広く使われている。
しかし、入力に加えられた小さい、知覚できない摂動の影響を受けやすいことが証明されている。
深層学習モデルを騙す精巧な設計の摂動を持つ入力は、逆例と呼ばれ、深層ニューラルネットワークの安全性に関する大きな懸念を提起している。
オブジェクト検出アルゴリズムは、画像やビデオ中のオブジェクトの特定と分類のために設計されており、多くのコンピュータビジョンタスクの中核であり、研究価値と幅広い応用がある。
本稿では,最先端の物体検出モデルに対する敵意攻撃に着目した。
実用的な代替手段として、攻撃には敵パッチを使用します。
2つの逆パッチ生成アルゴリズムが提案されている:ヒートマップに基づくアルゴリズムとコンセンサスに基づくアルゴリズムである。
実験の結果,提案手法は高い有効性,転送性,汎用性を示した。
さらに,提案手法を,alibaba が tianchi プラットフォーム上で実施し,1701 チームでトップ 7 を獲得した "オブジェクト検出に関する敵対的課題" に対抗するために適用した。
コードは、https://github.com/FenHua/DetDakで入手できる。
関連論文リスト
- Accelerating Object Detection with YOLOv4 for Real-Time Applications [0.276240219662896]
畳み込みニューラルネットワーク(CNN)は、ほとんどの問題に対して画像コンテンツとコンピュータビジョンアプローチを認識する強力なツールとして登場した。
本稿では、畳み込みニューラルネットワーク(CNN)のようなディープラーニングとオブジェクト検出フレームワークの簡単な紹介を紹介する。
論文 参考訳(メタデータ) (2024-10-17T17:44:57Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - The Weaknesses of Adversarial Camouflage in Overhead Imagery [7.724233098666892]
バス、車、トラック、バンの4つの異なるクラスを偽装するために、24の反対パッチからなるライブラリを構築します。
敵のパッチは、オブジェクト検出器を騙すかもしれないが、そのようなパッチの存在は、しばしば容易に明らかである。
これにより、このようなパッチが本当にカモフラージュを構成するかどうかという疑問が持ち上がる。
論文 参考訳(メタデータ) (2022-07-06T20:39:21Z) - Developing Imperceptible Adversarial Patches to Camouflage Military
Assets From Computer Vision Enabled Technologies [0.0]
畳み込みニューラルネットワーク(CNN)は、オブジェクト検出の急速な進歩と高いレベルの成功を示している。
最近の証拠は敵の攻撃に対する脆弱性を浮き彫りにした。
本稿では、大規模な軍事資産を模倣することのできる、知覚不能なパッチを生成するユニークな方法を提案する。
論文 参考訳(メタデータ) (2022-02-17T20:31:51Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。