論文の概要: Detecting Adversarial Perturbations in Multi-Task Perception
- arxiv url: http://arxiv.org/abs/2203.01177v1
- Date: Wed, 2 Mar 2022 15:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:38:40.275996
- Title: Detecting Adversarial Perturbations in Multi-Task Perception
- Title(参考訳): マルチタスク知覚における逆摂動の検出
- Authors: Marvin Klingner and Varun Ravi Kumar and Senthil Yogamani and Andreas
B\"ar and Tim Fingscheidt
- Abstract要約: 本稿では,複雑な視覚タスクのマルチタスク認識に基づく,新たな対向摂動検出手法を提案する。
入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
5%の偽陽性率を仮定すると、画像の最大100%は逆摂動として正しく検出され、摂動の強さに依存する。
- 参考スコア(独自算出の注目度): 32.9951531295576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks (DNNs) achieve impressive performance on
environment perception tasks, their sensitivity to adversarial perturbations
limits their use in practical applications. In this paper, we (i) propose a
novel adversarial perturbation detection scheme based on multi-task perception
of complex vision tasks (i.e., depth estimation and semantic segmentation).
Specifically, adversarial perturbations are detected by inconsistencies between
extracted edges of the input image, the depth output, and the segmentation
output. To further improve this technique, we (ii) develop a novel edge
consistency loss between all three modalities, thereby improving their initial
consistency which in turn supports our detection scheme. We verify our
detection scheme's effectiveness by employing various known attacks and image
noises. In addition, we (iii) develop a multi-task adversarial attack, aiming
at fooling both tasks as well as our detection scheme. Experimental evaluation
on the Cityscapes and KITTI datasets shows that under an assumption of a 5%
false positive rate up to 100% of images are correctly detected as
adversarially perturbed, depending on the strength of the perturbation. Code
will be available on github. A short video at https://youtu.be/KKa6gOyWmH4
provides qualitative results.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、環境認識タスクにおいて印象的なパフォーマンスを達成する一方で、敵の摂動に対する感度は、実践的なアプリケーションでの使用を制限する。
本稿では,
(i)複雑な視覚課題のマルチタスク知覚(すなわち、深さ推定と意味セグメンテーション)に基づく新しい逆摂動検出方式を提案する。
具体的には、入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
この技術をさらに改善するために
2) 3つのモード間の新しいエッジ整合性損失を発生させ,その初期整合性を改善することにより,検出方式をサポートする。
様々な既知の攻撃や画像ノイズを用いて検出手法の有効性を検証する。
さらに私たちは
(iii) 両タスクと検出方式を騙すことを目的としたマルチタスクの敵意攻撃を開発する。
CityscapesとKITTIデータセットの実験的評価により、5%の偽陽性率を仮定すると、画像の最大100%は、摂動の強さに応じて逆摂動として正しく検出されることが示された。
コードはgithubで入手できる。
https://youtu.be/kka6goywmh4の短いビデオは質的な結果を示している。
関連論文リスト
- AdvLogo: Adversarial Patch Attack against Object Detectors based on Diffusion Models [12.678320577368051]
セマンティックの観点からパッチアタックの新たな枠組みを提案し,これをAdvLogoと呼ぶ。
拡散復調過程のセマンティックな理解を活用し,最終段階において潜伏および非条件埋め込みを摂動させることにより,逆境の準領域へとプロセスを進める。
実験により、AdvLogoは高い視覚的品質を維持しながら強力な攻撃性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-11T04:30:45Z) - Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis [12.133306321357999]
セグメンテーションのためのニューラルネットワークに対する敵攻撃を検出する不確実性に基づく手法を提案する。
我々は,不確実性に基づく敵攻撃の検出と様々な最先端ニューラルネットワークの詳細な解析を行う。
提案手法の有効性を示す数値実験を行った。
論文 参考訳(メタデータ) (2024-08-19T14:13:30Z) - On Inherent Adversarial Robustness of Active Vision Systems [7.803487547944363]
GFNetとFALconの2つのアクティブビジョン手法は、最先端の敵攻撃下での標準的な受動畳み込みネットワークに比べて(2-3)強靭性を実現していることを示す。
さらに重要なことは、異なる固定点からの推論を行うと、アクティブな視覚メソッドが悪意のある入力に対して脆弱になることを示す、図解的で解釈可能な可視化分析を提供することである。
論文 参考訳(メタデータ) (2024-03-29T22:51:45Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Adversarial Attacks on Multi-task Visual Perception for Autonomous
Driving [0.5735035463793008]
対角攻撃は、距離推定、セマンティックセグメンテーション、動き検出、物体検出などにわたる多様なマルチタスク視覚深層ネットワークに適用される。
実験では、標的および未標的のケースに対する白と黒の両方のボックス攻撃を検討し、タスクを攻撃し、他のすべてのケースに対する効果を検査する。
本稿では,実験結果の比較と議論を行い,洞察と今後の研究を提案する。
論文 参考訳(メタデータ) (2021-07-15T16:53:48Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。