論文の概要: Fast Local Attack: Generating Local Adversarial Examples for Object
Detectors
- arxiv url: http://arxiv.org/abs/2010.14291v1
- Date: Tue, 27 Oct 2020 13:49:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:14:05.398764
- Title: Fast Local Attack: Generating Local Adversarial Examples for Object
Detectors
- Title(参考訳): 高速局所攻撃:オブジェクト検出器の局所的逆例の生成
- Authors: Quanyu Liao, Xin Wang, Bin Kong, Siwei Lyu, Youbing Yin, Qi Song and
Xi Wu
- Abstract要約: 本研究では,高レベルなセマンティック情報を利用して,アンカーフリー物体検出器の高攻撃的局所摂動を生成する。
その結果、計算集約性が低下し、より高いブラックボックス攻撃と攻撃性能が達成される。
提案手法で生成した逆例は, アンカーフリー物体検出器を攻撃できるだけでなく, アンカーベース物体検出器を攻撃できる。
- 参考スコア(独自算出の注目度): 38.813947369401525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep neural network is vulnerable to adversarial examples. Adding
imperceptible adversarial perturbations to images is enough to make them fail.
Most existing research focuses on attacking image classifiers or anchor-based
object detectors, but they generate globally perturbation on the whole image,
which is unnecessary. In our work, we leverage higher-level semantic
information to generate high aggressive local perturbations for anchor-free
object detectors. As a result, it is less computationally intensive and
achieves a higher black-box attack as well as transferring attack performance.
The adversarial examples generated by our method are not only capable of
attacking anchor-free object detectors, but also able to be transferred to
attack anchor-based object detector.
- Abstract(参考訳): ディープニューラルネットワークは、敵の例に弱い。
画像に知覚できない逆境の摂動を加えると失敗する。
既存の研究は画像分類器やアンカーベースの物体検出器の攻撃に重点を置いているが、画像全体の摂動を世界中に発生させるため、それは不要である。
本研究では,高レベルなセマンティック情報を利用して,アンカーフリー物体検出器の攻撃的局所摂動を生成する。
その結果、計算量が少なくなり、高いブラックボックス攻撃が可能となり、攻撃性能も向上した。
提案手法で生成した逆例は, アンカーフリー物体検出器を攻撃できるだけでなく, アンカーベース物体検出器を攻撃できる。
関連論文リスト
- Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Transferable Adversarial Examples for Anchor Free Object Detection [44.7397139463144]
我々は、アンカーフリー物体検出器に対する最初の対向攻撃を示す。
我々は高レベルなセマンティック情報を活用し、転送可能な敵の例を効率的に生成する。
提案手法は,最先端の性能と転送性を実現する。
論文 参考訳(メタデータ) (2021-06-03T06:38:15Z) - Sparse Adversarial Attack to Object Detection [0.8702432681310401]
本研究では, 対人攻撃(Sparse Adversarial Attack, SAA)を提案する。
YOLOv4とFasterRCNNの実験結果から,本手法の有効性が明らかになった。
論文 参考訳(メタデータ) (2020-12-26T07:52:28Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - Synthesizing Unrestricted False Positive Adversarial Objects Using
Generative Models [0.0]
逆の例は、ニューラルネットワークによって誤って分類されたデータポイントである。
最近の研究は、制限のない敵の例の概念を導入した。
対象検出の非制限逆例を生成する新たな攻撃カテゴリを提案する。
論文 参考訳(メタデータ) (2020-05-19T08:58:58Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。