論文の概要: Monocular Depth Estimators: Vulnerabilities and Attacks
- arxiv url: http://arxiv.org/abs/2005.14302v1
- Date: Thu, 28 May 2020 21:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:28:55.473032
- Title: Monocular Depth Estimators: Vulnerabilities and Attacks
- Title(参考訳): 単眼深度推定器:脆弱性と攻撃
- Authors: Alwyn Mathew, Aditya Prakash Patra, Jimson Mathew
- Abstract要約: ニューラルネットワークの最近の進歩は、信頼できる単分子深度推定につながる。
ディープニューラルネットワークは、分類、検出、セグメンテーションといったタスクの敵のサンプルに対して非常に脆弱である。
本稿では,最も最先端な単分子深度推定ネットワークの敵攻撃に対する消滅について検討する。
- 参考スコア(独自算出の注目度): 6.821598757786515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements of neural networks lead to reliable monocular depth
estimation. Monocular depth estimated techniques have the upper hand over
traditional depth estimation techniques as it only needs one image during
inference. Depth estimation is one of the essential tasks in robotics, and
monocular depth estimation has a wide variety of safety-critical applications
like in self-driving cars and surgical devices. Thus, the robustness of such
techniques is very crucial. It has been shown in recent works that these deep
neural networks are highly vulnerable to adversarial samples for tasks like
classification, detection and segmentation. These adversarial samples can
completely ruin the output of the system, making their credibility in real-time
deployment questionable. In this paper, we investigate the robustness of the
most state-of-the-art monocular depth estimation networks against adversarial
attacks. Our experiments show that tiny perturbations on an image that are
invisible to the naked eye (perturbation attack) and corruption less than about
1% of an image (patch attack) can affect the depth estimation drastically. We
introduce a novel deep feature annihilation loss that corrupts the hidden
feature space representation forcing the decoder of the network to output poor
depth maps. The white-box and black-box test compliments the effectiveness of
the proposed attack. We also perform adversarial example transferability tests,
mainly cross-data transferability.
- Abstract(参考訳): ニューラルネットワークの最近の進歩は、信頼性の高い単眼深度推定に繋がる。
単眼深度推定技術は、従来の深度推定技術よりも上手であり、推論中に1つの画像しか必要としない。
深さの推定はロボティクスにおける重要なタスクの1つであり、単眼深度推定は自動運転車や手術用デバイスなど、様々な安全クリティカルな応用がある。
したがって、このようなテクニックの堅牢性は非常に重要です。
これらのディープニューラルネットワークは、分類、検出、セグメンテーションといったタスクにおいて、敵のサンプルに対して非常に脆弱であることが最近の研究で示されている。
これらの敵対的なサンプルはシステムの出力を完全に破壊し、リアルタイムデプロイメントにおける信頼性を疑わしいものにする。
本稿では,最も最先端な単分子深度推定ネットワークの敵攻撃に対する堅牢性について検討する。
私たちの実験では、裸眼では見えない画像上の小さな摂動(摂動攻撃)と、画像の約1%未満の腐敗(パッチ攻撃)が、深度推定に大きく影響することを示しています。
本稿では,ネットワークのデコーダが低深度マップを出力することを強制する隠れた特徴空間表現を損なう,新しい深層特徴消滅損失を提案する。
ホワイトボックスとブラックボックステストは、提案された攻撃の有効性を補完する。
また、主にデータ間転送可能性に関する逆例転送可能性試験を行う。
関連論文リスト
- Uncertainty and Self-Supervision in Single-View Depth [0.8158530638728501]
シングルビューの深さ推定は、単一のビューから3次元幾何学を説明する複数の解が存在するため、不適切な問題である。
ディープニューラルネットワークは単一の視点から深度を捉えるのに有効であることが示されているが、現在の方法論の大半は本質的に決定論的である。
我々はベイジアンディープニューラルネットワークにおける教師付き単一視点深度の不確かさを定量化することでこの問題に対処した。
論文 参考訳(メタデータ) (2024-06-20T11:46:17Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Detecting Adversarial Perturbations in Multi-Task Perception [32.9951531295576]
本稿では,複雑な視覚タスクのマルチタスク認識に基づく,新たな対向摂動検出手法を提案する。
入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
5%の偽陽性率を仮定すると、画像の最大100%は逆摂動として正しく検出され、摂動の強さに依存する。
論文 参考訳(メタデータ) (2022-03-02T15:25:17Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Adversarial Patch Attacks on Monocular Depth Estimation Networks [7.089737454146505]
単眼深度推定における逆パッチ攻撃法を提案する。
我々は,対象の手法を騙して,パターンが配置されている領域の誤り深さを推定できる人工パターンを生成する。
実際のシーンに印刷されたパターンを物理的に配置することで,本手法を実世界で実現することができる。
論文 参考訳(メタデータ) (2020-10-06T22:56:22Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Adversarial Attacks on Monocular Depth Estimation [27.657287164064687]
本研究は,単眼深度推定における逆行性攻撃の最初の系統的研究である。
本稿では,まず,深度推定のための異なる攻撃シナリオの分類を定義した。
次に,深度推定の分野の分類にいくつかの最先端攻撃手法を適用した。
論文 参考訳(メタデータ) (2020-03-23T15:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。