論文の概要: Detection of Adversarial Physical Attacks in Time-Series Image Data
- arxiv url: http://arxiv.org/abs/2304.13919v1
- Date: Thu, 27 Apr 2023 02:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:35:17.558110
- Title: Detection of Adversarial Physical Attacks in Time-Series Image Data
- Title(参考訳): 時系列画像データにおける逆物理攻撃の検出
- Authors: Ramneet Kaur, Yiannis Kantaros, Wenwen Si, James Weimer, Insup Lee
- Abstract要約: 本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
- 参考スコア(独自算出の注目度): 12.923271427789267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNN) have become a common sensing modality in
autonomous systems as they allow for semantically perceiving the ambient
environment given input images. Nevertheless, DNN models have proven to be
vulnerable to adversarial digital and physical attacks. To mitigate this issue,
several detection frameworks have been proposed to detect whether a single
input image has been manipulated by adversarial digital noise or not. In our
prior work, we proposed a real-time detector, called VisionGuard (VG), for
adversarial physical attacks against single input images to DNN models.
Building upon that work, we propose VisionGuard* (VG), which couples VG with
majority-vote methods, to detect adversarial physical attacks in time-series
image data, e.g., videos. This is motivated by autonomous systems applications
where images are collected over time using onboard sensors for decision-making
purposes. We emphasize that majority-vote mechanisms are quite common in
autonomous system applications (among many other applications), as e.g., in
autonomous driving stacks for object detection. In this paper, we investigate,
both theoretically and experimentally, how this widely used mechanism can be
leveraged to enhance the performance of adversarial detectors. We have
evaluated VG* on videos of both clean and physically attacked traffic signs
generated by a state-of-the-art robust physical attack. We provide extensive
comparative experiments against detectors that have been designed originally
for out-of-distribution data and digitally attacked images.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)は、入力画像が与えられた環境を意味的に知覚できるため、自律システムにおいて一般的な知覚モダリティとなっている。
それでも、DNNモデルは敵のデジタル攻撃や物理的攻撃に弱いことが証明されている。
この問題を軽減するために,1つの入力画像が逆デジタルノイズによって操作されているか否かを検出するために,複数の検出フレームワークが提案されている。
本研究では,DNNモデルに対する単一入力画像に対する対角的物理的攻撃に対して,VG(VisionGuard)と呼ばれるリアルタイム検出器を提案する。
この研究に基づいて、VGと多数投票法を結合したVisionGuard*(VG)を提案し、時系列画像データ(例えばビデオ)における逆物理的攻撃を検出する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
多数投票機構は、例えばオブジェクト検出のための自律運転スタックにおいて、(他の多くのアプリケーションと同様に)自律システムアプリケーションで非常に一般的なものであることを強調する。
本稿では, 理論的, 実験的に, この広く利用されている機構を, 対向検出器の性能向上に活用する方法について検討する。
我々は,最先端のロバストな物理的攻撃によって生成された,クリーンで物理的に攻撃された交通標識の映像でvg*を評価した。
分散データやデジタルアタック画像用に設計された検出器に対する広範な比較実験を行う。
関連論文リスト
- Exploring the Adversarial Robustness of CLIP for AI-generated Image Detection [9.516391314161154]
比較言語-画像事前学習(CLIP)に基づく手法に着目し,AI生成画像検出器の対角的ロバスト性について検討した。
CLIPベースの検出器は、CNNベースの検出器と同様に、ホワイトボックス攻撃に対して脆弱である。
この分析は、より効果的な戦略を開発するのに役立つ法医学的検出器の特性に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-07-28T18:20:08Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Signal Injection Attacks against CCD Image Sensors [20.892354746682223]
我々は,CCDイメージセンサが捉えた画像情報を操作するために,電磁エマニュエーションをどのように利用できるかを示す。
以上の結果から,インジェクトされた歪みが視覚に基づく自律的知能システムを破壊する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-19T19:05:28Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Real-Time Detectors for Digital and Physical Adversarial Inputs to
Perception Systems [11.752184033538636]
ディープニューラルネットワーク(DNN)モデルは、敵のデジタルおよび物理的攻撃に対して脆弱であることが証明されている。
そこで本研究では,DNNに基づく認識システムに対する敵対的入力の両タイプに対して,新たな攻撃・データセット非依存・リアルタイム検出手法を提案する。
特に、提案した検出器は、逆画像が特定のラベル不変変換に敏感であるという観察に依存している。
論文 参考訳(メタデータ) (2020-02-23T00:03:57Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。