論文の概要: Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection
- arxiv url: http://arxiv.org/abs/2003.04367v4
- Date: Tue, 23 Jun 2020 00:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:49:41.751249
- Title: Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection
- Title(参考訳): カテゴリアタック:アンカーフリーオブジェクト検出のための転送可能な逆行例
- Authors: Quanyu Liao, Xin Wang, Bin Kong, Siwei Lyu, Youbing Yin, Qi Song, Xi
Wu
- Abstract要約: 本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
- 参考スコア(独自算出の注目度): 38.813947369401525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been demonstrated to be vulnerable to adversarial
attacks: subtle perturbations can completely change the classification results.
Their vulnerability has led to a surge of research in this direction. However,
most works dedicated to attacking anchor-based object detection models. In this
work, we aim to present an effective and efficient algorithm to generate
adversarial examples to attack anchor-free object models based on two
approaches. First, we conduct category-wise instead of instance-wise attacks on
the object detectors. Second, we leverage the high-level semantic information
to generate the adversarial examples. Surprisingly, the generated adversarial
examples it not only able to effectively attack the targeted anchor-free object
detector but also to be transferred to attack other object detectors, even
anchor-based detectors such as Faster R-CNN.
- Abstract(参考訳): 深いニューラルネットワークは敵の攻撃に弱いことが示されており、微妙な摂動は分類結果を完全に変える可能性がある。
その脆弱性は、この方向の研究の急増につながった。
しかしながら、ほとんどの作業はアンカーベースのオブジェクト検出モデルに対する攻撃に費やされている。
本研究では,2つのアプローチに基づいて,アンカーフリーなオブジェクトモデルを攻撃するための逆例を生成する,効率的かつ効率的なアルゴリズムを提案する。
まず,対象検出器に対するインスタンス攻撃ではなく,カテゴリ攻撃を行う。
第二に、高レベルな意味情報を利用して敵の例を生成する。
驚くべきことに、生成された敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃できるだけでなく、他の物体検出器、例えばFaster R-CNNのようなアンカーベース検出器を攻撃できる。
関連論文リスト
- Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Transferable Adversarial Examples for Anchor Free Object Detection [44.7397139463144]
我々は、アンカーフリー物体検出器に対する最初の対向攻撃を示す。
我々は高レベルなセマンティック情報を活用し、転送可能な敵の例を効率的に生成する。
提案手法は,最先端の性能と転送性を実現する。
論文 参考訳(メタデータ) (2021-06-03T06:38:15Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Fast Local Attack: Generating Local Adversarial Examples for Object
Detectors [38.813947369401525]
本研究では,高レベルなセマンティック情報を利用して,アンカーフリー物体検出器の高攻撃的局所摂動を生成する。
その結果、計算集約性が低下し、より高いブラックボックス攻撃と攻撃性能が達成される。
提案手法で生成した逆例は, アンカーフリー物体検出器を攻撃できるだけでなく, アンカーベース物体検出器を攻撃できる。
論文 参考訳(メタデータ) (2020-10-27T13:49:36Z) - Synthesizing Unrestricted False Positive Adversarial Objects Using
Generative Models [0.0]
逆の例は、ニューラルネットワークによって誤って分類されたデータポイントである。
最近の研究は、制限のない敵の例の概念を導入した。
対象検出の非制限逆例を生成する新たな攻撃カテゴリを提案する。
論文 参考訳(メタデータ) (2020-05-19T08:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。