論文の概要: The Weaknesses of Adversarial Camouflage in Overhead Imagery
- arxiv url: http://arxiv.org/abs/2207.02963v1
- Date: Wed, 6 Jul 2022 20:39:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 05:02:03.463636
- Title: The Weaknesses of Adversarial Camouflage in Overhead Imagery
- Title(参考訳): オーバーヘッド画像における対向カモフラージュの弱さ
- Authors: Adam Van Etten
- Abstract要約: バス、車、トラック、バンの4つの異なるクラスを偽装するために、24の反対パッチからなるライブラリを構築します。
敵のパッチは、オブジェクト検出器を騙すかもしれないが、そのようなパッチの存在は、しばしば容易に明らかである。
これにより、このようなパッチが本当にカモフラージュを構成するかどうかという疑問が持ち上がる。
- 参考スコア(独自算出の注目度): 7.724233098666892
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning is increasingly critical for analysis of the ever-growing
corpora of overhead imagery. Advanced computer vision object detection
techniques have demonstrated great success in identifying objects of interest
such as ships, automobiles, and aircraft from satellite and drone imagery. Yet
relying on computer vision opens up significant vulnerabilities, namely, the
susceptibility of object detection algorithms to adversarial attacks. In this
paper we explore the efficacy and drawbacks of adversarial camouflage in an
overhead imagery context. While a number of recent papers have demonstrated the
ability to reliably fool deep learning classifiers and object detectors with
adversarial patches, most of this work has been performed on relatively uniform
datasets and only a single class of objects. In this work we utilize the
VisDrone dataset, which has a large range of perspectives and object sizes. We
explore four different object classes: bus, car, truck, van. We build a library
of 24 adversarial patches to disguise these objects, and introduce a patch
translucency variable to our patches. The translucency (or alpha value) of the
patches is highly correlated to their efficacy. Further, we show that while
adversarial patches may fool object detectors, the presence of such patches is
often easily uncovered, with patches on average 24% more detectable than the
objects the patches were meant to hide. This raises the question of whether
such patches truly constitute camouflage. Source code is available at
https://github.com/IQTLabs/camolo.
- Abstract(参考訳): 機械学習は、成長を続けるオーバーヘッド画像のコーパスを分析するためにますます重要になっている。
高度なコンピュータビジョンオブジェクト検出技術は、衛星画像やドローン画像から船舶、自動車、航空機などの興味ある物体を識別することに成功した。
しかし、コンピュータビジョンに頼ることで、敵攻撃に対するオブジェクト検出アルゴリズムの感受性という重大な脆弱性が開ける。
本稿では,画像上における対向カモフラージュの有効性と欠点について考察する。
最近の多くの論文では、ディープラーニングの分類器やオブジェクト検出器を、逆のパッチで確実に騙す能力が実証されているが、この研究のほとんどは、比較的均一なデータセットと単一のオブジェクトで行われている。
この研究では、幅広い視点とオブジェクトサイズを持つvisdroneデータセットを利用しています。
私たちはバス、車、トラック、バンの4つの異なるオブジェクトクラスを調べます。
これらのオブジェクトを偽装するために24の敵対的パッチのライブラリを構築し、パッチにパッチ透過性変数を導入します。
パッチの透過性(またはアルファ値)は、その有効性と高い相関がある。
さらに,悪意のあるパッチは物体検出器を騙す可能性があるが,そのようなパッチの存在は容易に発見されることが多く,パッチが隠そうとしていたオブジェクトよりも平均24%検出可能であった。
これにより、このようなパッチが本当にカモフラージュを構成するかどうかが疑問視される。
ソースコードはhttps://github.com/IQTLabs/camolo.comで入手できる。
関連論文リスト
- Network transferability of adversarial patches in real-time object detection [3.237380113935023]
コンピュータビジョンにおける逆パッチは、ディープニューラルネットワークを騙し、意思決定プロセスを操作するために使用することができる。
本稿では,多数のオブジェクト検出器アーキテクチャ間の転送可能性について検討する。
論文 参考訳(メタデータ) (2024-08-28T14:47:34Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Developing Imperceptible Adversarial Patches to Camouflage Military
Assets From Computer Vision Enabled Technologies [0.0]
畳み込みニューラルネットワーク(CNN)は、オブジェクト検出の急速な進歩と高いレベルの成功を示している。
最近の証拠は敵の攻撃に対する脆弱性を浮き彫りにした。
本稿では、大規模な軍事資産を模倣することのできる、知覚不能なパッチを生成するユニークな方法を提案する。
論文 参考訳(メタデータ) (2022-02-17T20:31:51Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors [12.946967210071032]
敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
論文 参考訳(メタデータ) (2021-09-30T14:47:29Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - The Translucent Patch: A Physical and Universal Attack on Object
Detectors [48.31712758860241]
最先端の物体検出器を馬鹿にする非接触の物理パッチを提案する。
パッチの主な目標は、選択されたターゲットクラスのすべてのインスタンスを隠すことです。
我々のパッチは、すべてのストップサインインスタンスの42.27%の検出を阻止できた。
論文 参考訳(メタデータ) (2020-12-23T07:47:13Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - Adversarial Patch Camouflage against Aerial Detection [2.3268622345249796]
深層学習に基づく物体検出装置をドローンの監視映像に適用することにより、地上の軍事資産の検出を行うことができる。
本研究では,無人航空監視のユースケースに対して,パッチベースの敵攻撃を適用した。
以上の結果から,敵パッチ攻撃は従来のカモフラージュ活動の代替となる可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-31T15:21:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。