論文の概要: You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors
- arxiv url: http://arxiv.org/abs/2109.15177v1
- Date: Thu, 30 Sep 2021 14:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 15:08:04.748710
- Title: You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors
- Title(参考訳): 簡単にはつかめない: 物体検出のための低検出可能な逆境パッチ
- Authors: Zijian Zhu, Hang Su, Chang Liu, Wenzhao Xiang and Shibao Zheng
- Abstract要約: 敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
- 参考スコア(独自算出の注目度): 12.946967210071032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind spots or outright deceit can bedevil and deceive machine learning
models. Unidentified objects such as digital "stickers," also known as
adversarial patches, can fool facial recognition systems, surveillance systems
and self-driving cars. Fortunately, most existing adversarial patches can be
outwitted, disabled and rejected by a simple classification network called an
adversarial patch detector, which distinguishes adversarial patches from
original images. An object detector classifies and predicts the types of
objects within an image, such as by distinguishing a motorcyclist from the
motorcycle, while also localizing each object's placement within the image by
"drawing" so-called bounding boxes around each object, once again separating
the motorcyclist from the motorcycle. To train detectors even better, however,
we need to keep subjecting them to confusing or deceitful adversarial patches
as we probe for the models' blind spots. For such probes, we came up with a
novel approach, a Low-Detectable Adversarial Patch, which attacks an object
detector with small and texture-consistent adversarial patches, making these
adversaries less likely to be recognized. Concretely, we use several geometric
primitives to model the shapes and positions of the patches. To enhance our
attack performance, we also assign different weights to the bounding boxes in
terms of loss function. Our experiments on the common detection dataset COCO as
well as the driving-video dataset D2-City show that LDAP is an effective attack
method, and can resist the adversarial patch detector.
- Abstract(参考訳): 盲点やまったくの誤認は、機械学習モデルを悪用し、欺く可能性がある。
デジタル「ステッカー」や「敵のパッチ」などの特定されていない物体は、顔認識システム、監視システム、自動運転車を騙すことができる。
幸いなことに、既存のほとんどの逆パッチは、逆パッチ検出器と呼ばれる単純な分類ネットワークによって、外され、無効になり、拒否される。
物体検出器は、モーターサイクリストとオートバイとを区別するなど、画像内の物体の種類を分類し、予測すると同時に、画像内の各物体の配置を「描画」して各物体にバウンディングボックスを配置し、再びモーターサイクリストとオートバイとを分離する。
しかし、検知器をもっとよく訓練するためには、モデルの盲点を探索するときに混乱または偽りの敵のパッチを被る必要がある。
このような探索のために、我々は、小さくてテクスチャに一貫性のある対向パッチを持つ物体検出器を攻撃し、これらの対向が認識されにくくする新しいアプローチ、低検出可能な対向パッチを考案した。
具体的には,いくつかの幾何学的プリミティブを用いてパッチの形状と位置をモデル化する。
また,攻撃性能を向上させるために,損失関数の点で異なる重み付けをバウンディングボックスに割り当てる。
共通検出データセットCOCOと駆動画像データセットD2-Cityを用いた実験により,LDAPは効果的な攻撃法であり,対向パッチ検出に抵抗できることが示された。
関連論文リスト
- TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - The Weaknesses of Adversarial Camouflage in Overhead Imagery [7.724233098666892]
バス、車、トラック、バンの4つの異なるクラスを偽装するために、24の反対パッチからなるライブラリを構築します。
敵のパッチは、オブジェクト検出器を騙すかもしれないが、そのようなパッチの存在は、しばしば容易に明らかである。
これにより、このようなパッチが本当にカモフラージュを構成するかどうかという疑問が持ち上がる。
論文 参考訳(メタデータ) (2022-07-06T20:39:21Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - The Translucent Patch: A Physical and Universal Attack on Object
Detectors [48.31712758860241]
最先端の物体検出器を馬鹿にする非接触の物理パッチを提案する。
パッチの主な目標は、選択されたターゲットクラスのすべてのインスタンスを隠すことです。
我々のパッチは、すべてのストップサインインスタンスの42.27%の検出を阻止できた。
論文 参考訳(メタデータ) (2020-12-23T07:47:13Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - Adversarial Patch Camouflage against Aerial Detection [2.3268622345249796]
深層学習に基づく物体検出装置をドローンの監視映像に適用することにより、地上の軍事資産の検出を行うことができる。
本研究では,無人航空監視のユースケースに対して,パッチベースの敵攻撃を適用した。
以上の結果から,敵パッチ攻撃は従来のカモフラージュ活動の代替となる可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-31T15:21:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。