論文の概要: Detecting Adversarial Perturbations in Multi-Task Perception
- arxiv url: http://arxiv.org/abs/2203.01177v1
- Date: Wed, 2 Mar 2022 15:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:38:40.275996
- Title: Detecting Adversarial Perturbations in Multi-Task Perception
- Title(参考訳): マルチタスク知覚における逆摂動の検出
- Authors: Marvin Klingner and Varun Ravi Kumar and Senthil Yogamani and Andreas
B\"ar and Tim Fingscheidt
- Abstract要約: 本稿では,複雑な視覚タスクのマルチタスク認識に基づく,新たな対向摂動検出手法を提案する。
入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
5%の偽陽性率を仮定すると、画像の最大100%は逆摂動として正しく検出され、摂動の強さに依存する。
- 参考スコア(独自算出の注目度): 32.9951531295576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks (DNNs) achieve impressive performance on
environment perception tasks, their sensitivity to adversarial perturbations
limits their use in practical applications. In this paper, we (i) propose a
novel adversarial perturbation detection scheme based on multi-task perception
of complex vision tasks (i.e., depth estimation and semantic segmentation).
Specifically, adversarial perturbations are detected by inconsistencies between
extracted edges of the input image, the depth output, and the segmentation
output. To further improve this technique, we (ii) develop a novel edge
consistency loss between all three modalities, thereby improving their initial
consistency which in turn supports our detection scheme. We verify our
detection scheme's effectiveness by employing various known attacks and image
noises. In addition, we (iii) develop a multi-task adversarial attack, aiming
at fooling both tasks as well as our detection scheme. Experimental evaluation
on the Cityscapes and KITTI datasets shows that under an assumption of a 5%
false positive rate up to 100% of images are correctly detected as
adversarially perturbed, depending on the strength of the perturbation. Code
will be available on github. A short video at https://youtu.be/KKa6gOyWmH4
provides qualitative results.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、環境認識タスクにおいて印象的なパフォーマンスを達成する一方で、敵の摂動に対する感度は、実践的なアプリケーションでの使用を制限する。
本稿では,
(i)複雑な視覚課題のマルチタスク知覚(すなわち、深さ推定と意味セグメンテーション)に基づく新しい逆摂動検出方式を提案する。
具体的には、入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
この技術をさらに改善するために
2) 3つのモード間の新しいエッジ整合性損失を発生させ,その初期整合性を改善することにより,検出方式をサポートする。
様々な既知の攻撃や画像ノイズを用いて検出手法の有効性を検証する。
さらに私たちは
(iii) 両タスクと検出方式を騙すことを目的としたマルチタスクの敵意攻撃を開発する。
CityscapesとKITTIデータセットの実験的評価により、5%の偽陽性率を仮定すると、画像の最大100%は、摂動の強さに応じて逆摂動として正しく検出されることが示された。
コードはgithubで入手できる。
https://youtu.be/kka6goywmh4の短いビデオは質的な結果を示している。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Unsupervised Multi-Criteria Adversarial Detection in Deep Image
Retrieval [12.371928575574751]
最近、通常の画像検索を妨害するためにいくつかの攻撃が提案されている。
本稿では,ハミング空間における一意の敵対行動を特定するための,効率的かつ教師なしの手法を提案する。
特に,ハミング距離,量子化損失,デノベーションという観点から3つの基準を設計し,標的外攻撃と目標外攻撃の両面から防御する。
論文 参考訳(メタデータ) (2023-04-09T12:46:35Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Adversarial Attacks on Multi-task Visual Perception for Autonomous
Driving [0.5735035463793008]
対角攻撃は、距離推定、セマンティックセグメンテーション、動き検出、物体検出などにわたる多様なマルチタスク視覚深層ネットワークに適用される。
実験では、標的および未標的のケースに対する白と黒の両方のボックス攻撃を検討し、タスクを攻撃し、他のすべてのケースに対する効果を検査する。
本稿では,実験結果の比較と議論を行い,洞察と今後の研究を提案する。
論文 参考訳(メタデータ) (2021-07-15T16:53:48Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Robust Data Hiding Using Inverse Gradient Attention [82.73143630466629]
データ隠蔽タスクでは、異なる耐久性を有するため、カバー画像の各ピクセルを別々に扱う必要がある。
Inverse Gradient Attention (IGA) を用いた新しい深層データ隠蔽方式を提案する。
実証的な実験により、提案モデルが2つの先行するデータセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T19:08:23Z) - Connecting the Dots: Detecting Adversarial Perturbations Using Context
Inconsistency [25.039201331256372]
私たちは、トレーニング中のコンテキスト整合性ルールを学習し、テスト中の同じ違反をチェックするシステムで、Deep Neural Networkを強化します。
提案手法では,各オブジェクトクラス毎に自動エンコーダのセットを構築し,追加の対向摂動がコンテキスト整合規則に違反している場合,入力と出力の差分を出力するように適切に訓練する。
PASCAL VOCおよびMS COCOを用いた実験により,本手法は種々の敵攻撃を効果的に検出し,高いROC-AUC(ほとんどの場合0.95以上)を達成することが示された。
論文 参考訳(メタデータ) (2020-07-19T19:46:45Z) - Monocular Depth Estimators: Vulnerabilities and Attacks [6.821598757786515]
ニューラルネットワークの最近の進歩は、信頼できる単分子深度推定につながる。
ディープニューラルネットワークは、分類、検出、セグメンテーションといったタスクの敵のサンプルに対して非常に脆弱である。
本稿では,最も最先端な単分子深度推定ネットワークの敵攻撃に対する消滅について検討する。
論文 参考訳(メタデータ) (2020-05-28T21:25:21Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。