論文の概要: Real-Time Detectors for Digital and Physical Adversarial Inputs to
Perception Systems
- arxiv url: http://arxiv.org/abs/2002.09792v2
- Date: Thu, 21 Apr 2022 22:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 10:00:20.434008
- Title: Real-Time Detectors for Digital and Physical Adversarial Inputs to
Perception Systems
- Title(参考訳): 知覚システムに対するディジタル・物理逆入力のリアルタイム検出
- Authors: Yiannis Kantaros, Taylor Carpenter, Kaustubh Sridhar, Yahan Yang,
Insup Lee, James Weimer
- Abstract要約: ディープニューラルネットワーク(DNN)モデルは、敵のデジタルおよび物理的攻撃に対して脆弱であることが証明されている。
そこで本研究では,DNNに基づく認識システムに対する敵対的入力の両タイプに対して,新たな攻撃・データセット非依存・リアルタイム検出手法を提案する。
特に、提案した検出器は、逆画像が特定のラベル不変変換に敏感であるという観察に依存している。
- 参考スコア(独自算出の注目度): 11.752184033538636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN) models have proven to be vulnerable to adversarial
digital and physical attacks. In this paper, we propose a novel attack- and
dataset-agnostic and real-time detector for both types of adversarial inputs to
DNN-based perception systems. In particular, the proposed detector relies on
the observation that adversarial images are sensitive to certain
label-invariant transformations. Specifically, to determine if an image has
been adversarially manipulated, the proposed detector checks if the output of
the target classifier on a given input image changes significantly after
feeding it a transformed version of the image under investigation. Moreover, we
show that the proposed detector is computationally-light both at runtime and
design-time which makes it suitable for real-time applications that may also
involve large-scale image domains. To highlight this, we demonstrate the
efficiency of the proposed detector on ImageNet, a task that is computationally
challenging for the majority of relevant defenses, and on physically attacked
traffic signs that may be encountered in real-time autonomy applications.
Finally, we propose the first adversarial dataset, called AdvNet that includes
both clean and physical traffic sign images. Our extensive comparative
experiments on the MNIST, CIFAR10, ImageNet, and AdvNet datasets show that
VisionGuard outperforms existing defenses in terms of scalability and detection
performance. We have also evaluated the proposed detector on field test data
obtained on a moving vehicle equipped with a perception-based DNN being under
attack.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)モデルは、敵のデジタルおよび物理的攻撃に対して脆弱であることが証明されている。
本稿では,DNNに基づく認識システムに対する,双方の逆入力に対する新たな攻撃・データセット非依存・リアルタイム検出手法を提案する。
特に、提案された検出器は、逆像が特定のラベル不変変換に敏感であるという観測に依存する。
具体的には、画像が逆向きに操作されているかどうかを判定するために、所定の入力画像に対する対象分類器の出力が、調査中の画像の変換版を供給した後、大きく変化するかどうかを検知する。
さらに,提案する検出器は実行時と設計時の両方で計算的に軽量であり,大規模な画像領域を含むリアルタイムアプリケーションに適していることを示す。
そこで我々は,imagenetにおける提案手法の有効性を実証する。この課題は,関連する防御の大部分や,リアルタイムの自律的アプリケーションで遭遇する可能性のある物理的に攻撃される交通標識に対して,計算的に困難である。
最後に,クリーンかつ物理的な交通標識画像を含む,AdvNetと呼ばれる最初の敵対的データセットを提案する。
MNIST、CIFAR10、ImageNet、AdvNetのデータセットに関する大規模な比較実験は、VisionGuardがスケーラビリティと検出性能で既存のディフェンスを上回っていることを示している。
また,攻撃対象の認識ベースDNNを備えた移動体上でのフィールドテストデータに対して,提案した検出器の評価を行った。
関連論文リスト
- PrObeD: Proactive Object Detection Wrapper [15.231600709902127]
PrObeDはエンコーダ・デコーダアーキテクチャで構成されており、エンコーダネットワークは入力画像の暗号化のために画像依存の信号テンプレートを生成する。
本稿では,プロアクティブな手法に基づくラッパーPrObeDを提案する。
PrObeDの適用後,MS-COCO,CAMO,COD$10$K,NC$4$Kのデータセットを用いた実験を行った。
論文 参考訳(メタデータ) (2023-10-28T19:25:01Z) - Investigating the Robustness and Properties of Detection Transformers
(DETR) Toward Difficult Images [1.5727605363545245]
トランスフォーマーベースのオブジェクト検出器(DETR)は、マシンビジョンタスク間で大きな性能を示している。
対処すべき重要な問題は、このモデルアーキテクチャがどのように異なるイメージニュアンスを扱うことができるかである。
本研究では,DeTRの性能を異なる実験で測定し,ネットワークのベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-12T23:38:52Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Detection of Adversarial Physical Attacks in Time-Series Image Data [12.923271427789267]
本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
論文 参考訳(メタデータ) (2023-04-27T02:08:13Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Efficient detection of adversarial images [2.6249027950824506]
画像の画素値は外部攻撃者によって修正されるため、人間の目にはほとんど見えない。
本稿では,修正画像の検出を容易にする新しい前処理手法を提案する。
このアルゴリズムの適応バージョンでは、ランダムな数の摂動が適応的に選択される。
論文 参考訳(メタデータ) (2020-07-09T05:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。