論文の概要: Synthesizing Unrestricted False Positive Adversarial Objects Using
Generative Models
- arxiv url: http://arxiv.org/abs/2005.09294v1
- Date: Tue, 19 May 2020 08:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:03:45.166735
- Title: Synthesizing Unrestricted False Positive Adversarial Objects Using
Generative Models
- Title(参考訳): 生成モデルを用いた非拘束的偽正逆物体の合成
- Authors: Martin Kotuliak, Sandro E. Schoenborn, Andrei Dan
- Abstract要約: 逆の例は、ニューラルネットワークによって誤って分類されたデータポイントである。
最近の研究は、制限のない敵の例の概念を導入した。
対象検出の非制限逆例を生成する新たな攻撃カテゴリを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are data points misclassified by neural networks.
Originally, adversarial examples were limited to adding small perturbations to
a given image. Recent work introduced the generalized concept of unrestricted
adversarial examples, without limits on the added perturbations. In this paper,
we introduce a new category of attacks that create unrestricted adversarial
examples for object detection. Our key idea is to generate adversarial objects
that are unrelated to the classes identified by the target object detector.
Different from previous attacks, we use off-the-shelf Generative Adversarial
Networks (GAN), without requiring any further training or modification. Our
method consists of searching over the latent normal space of the GAN for
adversarial objects that are wrongly identified by the target object detector.
We evaluate this method on the commonly used Faster R-CNN ResNet-101, Inception
v2 and SSD Mobilenet v1 object detectors using logo generative iWGAN-LC and
SNGAN trained on CIFAR-10. The empirical results show that the generated
adversarial objects are indistinguishable from non-adversarial objects
generated by the GANs, transferable between the object detectors and robust in
the physical world. This is the first work to study unrestricted false positive
adversarial examples for object detection.
- Abstract(参考訳): 逆向きの例は、ニューラルネットワークによって誤分類されたデータポイントである。
当初、敵対的な例は、与えられた画像に小さな摂動を追加することに限定されていた。
近年の研究では、加えられた摂動の制限なく、制限のない逆境例の一般化概念が導入された。
本稿では,オブジェクト検出の非制限的な逆行例を生成する攻撃の新たなカテゴリを提案する。
私たちのキーとなるアイデアは、ターゲットオブジェクト検出器によって識別されるクラスとは無関係な敵オブジェクトを生成することです。
これまでの攻撃とは違って、我々はさらなる訓練や修正を必要とせず、既製のジェネレーティブ・アドバイサル・ネットワーク(GAN)を使用している。
本手法は,ターゲット物体検出器によって誤って識別される敵物体に対して,ganの潜在正規空間を探索するものである。
CIFAR-10 で訓練したロゴ生成 iWGAN-LC と SNGAN を用いて, 一般的に使用されている高速 R-CNN ResNet-101, Inception v2, SSD Mobilenet v1 オブジェクト検出器について評価を行った。
実験の結果, 生成した対向物体は, GANが生成する非対向物体と区別できず, 物体検出器間で移動可能であり, 物理世界では堅牢であることがわかった。
これは、オブジェクト検出の非制限的偽正逆例を研究する最初の研究である。
関連論文リスト
- Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning [25.935629339091697]
オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
我々は,OSODの課題に対処するため,Openset RCNNを提案する。
我々のOpenset RCNNは、散らばった環境下でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示します。
論文 参考訳(メタデータ) (2022-11-21T15:00:04Z) - Nowhere to Hide: A Lightweight Unsupervised Detector against Adversarial
Examples [14.332434280103667]
敵対的な例は、わずかながら悪質に作られた摂動を良心的なイメージに追加することによって生成される。
本稿では,AutoEncoderを用いたAdversarial Examples検出器を提案する。
AEAEは、最先端の攻撃に対して教師なしで安価であることを実証的に示す。
論文 参考訳(メタデータ) (2022-10-16T16:29:47Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Transferable Adversarial Examples for Anchor Free Object Detection [44.7397139463144]
我々は、アンカーフリー物体検出器に対する最初の対向攻撃を示す。
我々は高レベルなセマンティック情報を活用し、転送可能な敵の例を効率的に生成する。
提案手法は,最先端の性能と転送性を実現する。
論文 参考訳(メタデータ) (2021-06-03T06:38:15Z) - Fast Local Attack: Generating Local Adversarial Examples for Object
Detectors [38.813947369401525]
本研究では,高レベルなセマンティック情報を利用して,アンカーフリー物体検出器の高攻撃的局所摂動を生成する。
その結果、計算集約性が低下し、より高いブラックボックス攻撃と攻撃性能が達成される。
提案手法で生成した逆例は, アンカーフリー物体検出器を攻撃できるだけでなく, アンカーベース物体検出器を攻撃できる。
論文 参考訳(メタデータ) (2020-10-27T13:49:36Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。