論文の概要: Adversarial Attacks on Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2003.10315v1
- Date: Mon, 23 Mar 2020 15:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:26:04.171775
- Title: Adversarial Attacks on Monocular Depth Estimation
- Title(参考訳): 単眼深度推定における逆攻撃
- Authors: Ziqi Zhang, Xinge Zhu, Yingwei Li, Xiangqun Chen, Yao Guo
- Abstract要約: 本研究は,単眼深度推定における逆行性攻撃の最初の系統的研究である。
本稿では,まず,深度推定のための異なる攻撃シナリオの分類を定義した。
次に,深度推定の分野の分類にいくつかの最先端攻撃手法を適用した。
- 参考スコア(独自算出の注目度): 27.657287164064687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances of deep learning have brought exceptional performance on many
computer vision tasks such as semantic segmentation and depth estimation.
However, the vulnerability of deep neural networks towards adversarial examples
have caused grave concerns for real-world deployment. In this paper, we present
to the best of our knowledge the first systematic study of adversarial attacks
on monocular depth estimation, an important task of 3D scene understanding in
scenarios such as autonomous driving and robot navigation. In order to
understand the impact of adversarial attacks on depth estimation, we first
define a taxonomy of different attack scenarios for depth estimation, including
non-targeted attacks, targeted attacks and universal attacks. We then adapt
several state-of-the-art attack methods for classification on the field of
depth estimation. Besides, multi-task attacks are introduced to further improve
the attack performance for universal attacks. Experimental results show that it
is possible to generate significant errors on depth estimation. In particular,
we demonstrate that our methods can conduct targeted attacks on given objects
(such as a car), resulting in depth estimation 3-4x away from the ground truth
(e.g., from 20m to 80m).
- Abstract(参考訳): 近年のディープラーニングの進歩は、セマンティックセグメンテーションや深さ推定といった多くのコンピュータビジョンタスクにおいて、例外的なパフォーマンスをもたらしている。
しかし、敵の例に対するディープニューラルネットワークの脆弱性は、現実世界の展開に重大な懸念を引き起こしている。
本稿では,自律運転やロボットナビゲーションといったシナリオにおける3次元シーン理解の重要な課題である,単眼深度推定に対する敵対的攻撃に関する最初の体系的研究について,我々の知る限りの知見を紹介する。
敵の攻撃が深さ推定に与える影響を理解するために,まず,非標的攻撃,標的攻撃,普遍攻撃など,深さ推定のための異なる攻撃シナリオの分類を定義する。
次に,深度推定の分野の分類にいくつかの最先端攻撃手法を適用した。
さらに、ユニバーサルアタックの攻撃性能をさらに向上するためにマルチタスクアタックが導入されている。
実験結果から,深度推定において重大な誤差が生じる可能性が示唆された。
特に,本手法が与えられた対象物(車など)に対して標的攻撃を行い,基底真理(例えば20mから80m)から3~4倍の深さを推定できることを実証する。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - Adversarial Attacks on Monocular Pose Estimation [13.7258515433446]
単眼深度を対象とする対向摂動とポーズ推定ネットワークの関係について検討する。
我々の実験は、生成した摂動が相対回転および翻訳予測において顕著な誤差をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-14T16:12:31Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Adversarial Patch Attacks on Monocular Depth Estimation Networks [7.089737454146505]
単眼深度推定における逆パッチ攻撃法を提案する。
我々は,対象の手法を騙して,パターンが配置されている領域の誤り深さを推定できる人工パターンを生成する。
実際のシーンに印刷されたパターンを物理的に配置することで,本手法を実世界で実現することができる。
論文 参考訳(メタデータ) (2020-10-06T22:56:22Z) - Adversarial Attacks and Detection on Reinforcement Learning-Based
Interactive Recommender Systems [47.70973322193384]
敵の攻撃は、早期にそれらを検出する上で大きな課題となる。
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける攻撃非依存の検出を提案する。
まず, 多様な分布を示すために敵の例を作成し, 潜在的な攻撃を検知して推薦システムを強化した。
論文 参考訳(メタデータ) (2020-06-14T15:41:47Z) - Monocular Depth Estimators: Vulnerabilities and Attacks [6.821598757786515]
ニューラルネットワークの最近の進歩は、信頼できる単分子深度推定につながる。
ディープニューラルネットワークは、分類、検出、セグメンテーションといったタスクの敵のサンプルに対して非常に脆弱である。
本稿では,最も最先端な単分子深度推定ネットワークの敵攻撃に対する消滅について検討する。
論文 参考訳(メタデータ) (2020-05-28T21:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。