論文の概要: Deceiving Image-to-Image Translation Networks for Autonomous Driving
with Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2001.01506v1
- Date: Mon, 6 Jan 2020 11:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 03:13:17.072940
- Title: Deceiving Image-to-Image Translation Networks for Autonomous Driving
with Adversarial Perturbations
- Title(参考訳): 対向的摂動を考慮した自律走行のための画像間翻訳ネットワークの廃止
- Authors: Lin Wang, Wonjune Cho, and Kuk-Jin Yoon
- Abstract要約: 本稿では,自律運転のためのIm2Imフレームワークを騙しうる,様々な種類の逆方向摂動について検討する。
我々は,Im2Imモデルが予期せぬ結果をもたらすような,準物理的およびデジタル的対向的摂動を提案する。
- 参考スコア(独自算出の注目度): 30.280424503644486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have achieved impressive performance on handling
computer vision problems, however, it has been found that DNNs are vulnerable
to adversarial examples. For such reason, adversarial perturbations have been
recently studied in several respects. However, most previous works have focused
on image classification tasks, and it has never been studied regarding
adversarial perturbations on Image-to-image (Im2Im) translation tasks, showing
great success in handling paired and/or unpaired mapping problems in the field
of autonomous driving and robotics. This paper examines different types of
adversarial perturbations that can fool Im2Im frameworks for autonomous driving
purpose. We propose both quasi-physical and digital adversarial perturbations
that can make Im2Im models yield unexpected results. We then empirically
analyze these perturbations and show that they generalize well under both
paired for image synthesis and unpaired settings for style transfer. We also
validate that there exist some perturbation thresholds over which the Im2Im
mapping is disrupted or impossible. The existence of these perturbations
reveals that there exist crucial weaknesses in Im2Im models. Lastly, we show
that our methods illustrate how perturbations affect the quality of outputs,
pioneering the improvement of the robustness of current SOTA networks for
autonomous driving.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はコンピュータビジョン問題に対処する上で優れた性能を発揮しているが、DNNは敵の例に弱いことが判明した。
このような理由から、最近いくつかの点で敵対的摂動が研究されている。
しかし、以前のほとんどの著作は画像分類の課題に焦点を当てており、画像から画像への変換タスク(im2im)における敵対的摂動についての研究は行われていない。
本稿では,自律運転のためのIm2Imフレームワークを騙しうる,様々な種類の逆転摂動について検討する。
我々は,Im2Imモデルが予期せぬ結果をもたらすような,準物理的およびデジタル逆転摂動を提案する。
次に,これらの摂動を実験的に解析し,画像合成のためのペアリングとスタイル転送のための非ペア設定の両方でよく一般化することを示す。
また、Im2Imマッピングが破壊されるか不可能となるような摂動しきい値が存在することを検証する。
これらの摂動の存在はim2imモデルに重大な弱点が存在することを示している。
最後に,提案手法がアウトプットの品質にどのような影響を与えるかを示すとともに,自律運転における現在のSOTAネットワークのロバスト性の向上を先導していることを示す。
関連論文リスト
- On Inherent Adversarial Robustness of Active Vision Systems [7.803487547944363]
GFNetとFALconの2つのアクティブビジョン手法は、最先端の敵攻撃下での標準的な受動畳み込みネットワークに比べて(2-3)強靭性を実現していることを示す。
さらに重要なことは、異なる固定点からの推論を行うと、アクティブな視覚メソッドが悪意のある入力に対して脆弱になることを示す、図解的で解釈可能な可視化分析を提供することである。
論文 参考訳(メタデータ) (2024-03-29T22:51:45Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Detecting Adversarial Perturbations in Multi-Task Perception [32.9951531295576]
本稿では,複雑な視覚タスクのマルチタスク認識に基づく,新たな対向摂動検出手法を提案する。
入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
5%の偽陽性率を仮定すると、画像の最大100%は逆摂動として正しく検出され、摂動の強さに依存する。
論文 参考訳(メタデータ) (2022-03-02T15:25:17Z) - Robust SleepNets [7.23389716633927]
本研究では,運転者の脱着や運転者の眠気にかかわる事故を防止するために,視線閉鎖性検出について検討した。
目の閉鎖度を検出するための2つのモデル:目の画像の最初のモデルと顔の画像の2番目のモデル。
我々は,予測グラディエント Descent,Fast Gradient Sign,DeepFool メソッドでモデルに逆襲し,逆襲成功率を報告する。
論文 参考訳(メタデータ) (2021-02-24T20:48:13Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。