論文の概要: Understanding Object Detection Through An Adversarial Lens
- arxiv url: http://arxiv.org/abs/2007.05828v1
- Date: Sat, 11 Jul 2020 18:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:27:36.643576
- Title: Understanding Object Detection Through An Adversarial Lens
- Title(参考訳): 逆レンズによる物体検出の理解
- Authors: Ka-Ho Chow, Ling Liu, Mehmet Emre Gursoy, Stacey Truex, Wenqi Wei,
Yanzhao Wu
- Abstract要約: 本稿では, 対向レンズ下での深部物体検出装置の脆弱性を分析し評価するための枠組みを提案する。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを解析するための方法論的ベンチマークとして機能することが実証された。
我々は、このフレームワークが、現実世界のアプリケーションにデプロイされるディープオブジェクト検出器のセキュリティリスクと敵の堅牢性を評価するツールとしても役立つと推測する。
- 参考スコア(独自算出の注目度): 14.976840260248913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks based object detection models have revolutionized
computer vision and fueled the development of a wide range of visual
recognition applications. However, recent studies have revealed that deep
object detectors can be compromised under adversarial attacks, causing a victim
detector to detect no object, fake objects, or mislabeled objects. With object
detection being used pervasively in many security-critical applications, such
as autonomous vehicles and smart cities, we argue that a holistic approach for
an in-depth understanding of adversarial attacks and vulnerabilities of deep
object detection systems is of utmost importance for the research community to
develop robust defense mechanisms. This paper presents a framework for
analyzing and evaluating vulnerabilities of the state-of-the-art object
detectors under an adversarial lens, aiming to analyze and demystify the attack
strategies, adverse effects, and costs, as well as the cross-model and
cross-resolution transferability of attacks. Using a set of quantitative
metrics, extensive experiments are performed on six representative deep object
detectors from three popular families (YOLOv3, SSD, and Faster R-CNN) with two
benchmark datasets (PASCAL VOC and MS COCO). We demonstrate that the proposed
framework can serve as a methodical benchmark for analyzing adversarial
behaviors and risks in real-time object detection systems. We conjecture that
this framework can also serve as a tool to assess the security risks and the
adversarial robustness of deep object detectors to be deployed in real-world
applications.
- Abstract(参考訳): ディープニューラルネットワークに基づくオブジェクト検出モデルはコンピュータビジョンに革命をもたらし、幅広い視覚認識アプリケーションの開発を加速させた。
しかし、最近の研究で、ディープ・オブジェクト・ディテクターは敵の攻撃を受け、被害者の検出器が物体、偽物、または誤ラベルされた物体を検出できないことが判明した。
自動運転車やスマートシティなど、多くのセキュリティクリティカルなアプリケーションでオブジェクト検出が広く使われているため、深層物体検出システムの敵意攻撃や脆弱性を深く理解するための包括的アプローチは、研究コミュニティにとって堅牢な防御メカニズムを開発する上で最も重要であると論じている。
本稿では,攻撃戦略,悪影響,コスト,および攻撃のクロスモデルおよびクロスレゾリューション伝達性を分析することを目的とした,敵レンズ下の最先端物体検出器の脆弱性を解析・評価するためのフレームワークを提案する。
測定値のセットを用いて、2つのベンチマークデータセット(PASCAL VOCとMS COCO)を持つ3つの一般的なファミリー(YOLOv3、SSD、Faster R-CNN)の6つの代表的ディープオブジェクト検出器に対して、広範な実験を行う。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを分析するための方法論的ベンチマークとして機能することを示す。
このフレームワークは、現実世界のアプリケーションにデプロイされる深層物体検出器のセキュリティリスクと敵対的ロバスト性を評価するツールとしても利用できると推測する。
関連論文リスト
- On the Importance of Backbone to the Adversarial Robustness of Object
Detectors [26.712934402914854]
対象検出器の対向ロバスト性を高めるためには,逆向きに事前学習したバックボーンネットワークを用いることが不可欠である。
本稿では,逆さまに事前学習したバックボーンを持つ物体検出器の高速逆方向微調整のための簡易かつ効果的なレシピを提案する。
我々の実験結果は新たなマイルストーンを樹立し、対向的に堅牢な物体検出の理解を深めた。
論文 参考訳(メタデータ) (2023-05-27T10:26:23Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - Adversarial Attack and Defense of YOLO Detectors in Autonomous Driving
Scenarios [3.236217153362305]
本稿では,自律走行車における視覚的検出の客観性に着目した効果的な攻撃戦略を提案する。
実験の結果、対象のアスペクトを標的とした攻撃は45.17%と43.50%が、分類や局所化の損失から生じた攻撃よりも効果的であることが示されている。
提案手法は, KITTI と COCO_traffic でそれぞれ最大21% と 12% mAP の目標指向攻撃に対する検出器の堅牢性を向上させることができる。
論文 参考訳(メタデータ) (2022-02-10T00:47:36Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - CCA: Exploring the Possibility of Contextual Camouflage Attack on Object
Detection [16.384831731988204]
対象検出器の性能に影響を及ぼすためのコンテキストカモフラージュ攻撃(CCA)アルゴリズムを提案する。
本稿では,フォトリアリスティック・シミュレートされた環境における進化的探索戦略と対向機械学習の相互作用について述べる。
提案されたカモフラージュは、最先端の物体検出器の多くに有効であることが検証されている。
論文 参考訳(メタデータ) (2020-08-19T06:16:10Z) - TOG: Targeted Adversarial Objectness Gradient Attacks on Real-time
Object Detection Systems [14.976840260248913]
本稿では,3つの対象対向対象度勾配攻撃により,オブジェクトの消滅,オブジェクトのファブリケーション,オブジェクトのミスラベリングが生じることを示す。
また,ブラックボックス攻撃に対して,対向移動性を利用する汎用的オブジェクト指向勾配攻撃を提案する。
その結果、深刻な敵の脆弱性が示され、堅牢な物体検出システムを開発するための説得力のある必要性が示された。
論文 参考訳(メタデータ) (2020-04-09T01:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。