論文の概要: APARATE: Adaptive Adversarial Patch for CNN-based Monocular Depth
Estimation for Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2303.01351v2
- Date: Mon, 20 Nov 2023 11:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 05:41:41.295792
- Title: APARATE: Adaptive Adversarial Patch for CNN-based Monocular Depth
Estimation for Autonomous Navigation
- Title(参考訳): aparate: 自律ナビゲーションのためのcnnに基づく単眼深度推定のための適応逆パッチ
- Authors: Amira Guesmi, Muhammad Abdullah Hanif, Ihsen Alouani, and Muhammad
Shafique
- Abstract要約: 単眼深度推定(MDE)は、革新的なアーキテクチャ、すなわち畳み込みニューラルネットワーク(CNN)とトランスフォーマーの統合により、性能が大幅に向上した。
これらのモデルの敵攻撃に対する感受性は、特に安全性とセキュリティが最優先の領域において注目に値する関心事となっている。
この懸念は、正確なシーン理解が重要である自律運転やロボットナビゲーションといったアプリケーションにおいて重要な役割を担っているため、MDEにとって特に重みとなる。
- 参考スコア(独自算出の注目度): 8.187375378049353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent times, monocular depth estimation (MDE) has experienced significant
advancements in performance, largely attributed to the integration of
innovative architectures, i.e., convolutional neural networks (CNNs) and
Transformers. Nevertheless, the susceptibility of these models to adversarial
attacks has emerged as a noteworthy concern, especially in domains where safety
and security are paramount. This concern holds particular weight for MDE due to
its critical role in applications like autonomous driving and robotic
navigation, where accurate scene understanding is pivotal. To assess the
vulnerability of CNN-based depth prediction methods, recent work tries to
design adversarial patches against MDE. However, the existing approaches fall
short of inducing a comprehensive and substantially disruptive impact on the
vision system. Instead, their influence is partial and confined to specific
local areas. These methods lead to erroneous depth predictions only within the
overlapping region with the input image, without considering the
characteristics of the target object, such as its size, shape, and position. In
this paper, we introduce a novel adversarial patch named APARATE. This patch
possesses the ability to selectively undermine MDE in two distinct ways: by
distorting the estimated distances or by creating the illusion of an object
disappearing from the perspective of the autonomous system. Notably, APARATE is
designed to be sensitive to the shape and scale of the target object, and its
influence extends beyond immediate proximity. APARATE, results in a mean depth
estimation error surpassing $0.5$, significantly impacting as much as $99\%$ of
the targeted region when applied to CNN-based MDE models. Furthermore, it
yields a significant error of $0.34$ and exerts substantial influence over
$94\%$ of the target region in the context of Transformer-based MDE.
- Abstract(参考訳): 近年、単眼深度推定(MDE)は、革新的アーキテクチャ、すなわち畳み込みニューラルネットワーク(CNN)とトランスフォーマーの統合によるパフォーマンスの著しい進歩を経験している。
しかし、特に安全とセキュリティが最優先の領域において、敵攻撃に対するこれらのモデルの感受性が注目に値する関心事となっている。
この懸念は、正確なシーン理解が重要である自律運転やロボットナビゲーションといったアプリケーションにおいて重要な役割を担っているため、MDEにとって特に重みとなる。
CNNに基づく深度予測手法の脆弱性を評価するため、最近の研究はMDEに対する敵パッチの設計を試みる。
しかし、既存のアプローチはビジョンシステムに包括的で破壊的な影響をもたらすには至っていない。
その代わりに、その影響は部分的であり、特定の地域に限定される。
これらの手法は,入力画像と重なり合う領域内でのみ,対象物体のサイズ,形状,位置などの特性を考慮せずに誤った深度予測を行う。
本稿では,APARATEという新たな対角パッチを提案する。
このパッチは、推定距離を歪めるか、自律システムの観点から消失する物体の錯覚を生じさせることで、2つの異なる方法でmdeを選択的に弱めさせる能力を持っている。
特に、アパリテートは対象物体の形状や大きさに敏感に設計されており、その影響はすぐ近くまで及んでいる。
APARATEは、平均深度推定誤差が0.5ドルを超え、CNNベースのMDEモデルに適用した場合、ターゲット領域の最大99.%のコストに著しく影響する。
さらに、TransformerベースのMDEのコンテキストにおいて、0.34ドルという大きなエラーが発生し、ターゲット領域の9,4\%以上に大きな影響を及ぼす。
関連論文リスト
- Physical Adversarial Attack on Monocular Depth Estimation via Shape-Varying Patches [8.544722337960359]
形状変化パッチによる攻撃(ASP)というフレームワークを用いて,物理に基づく単眼深度推定に対する逆攻撃を提案する。
攻撃の柔軟性と効率を高めるために、四角形、長方形、円形のマスクを含む様々なマスク形状を導入する。
実験結果から, 目標車両の平均深度誤差は18mであり, パッチ面積は1/9であり, 目標車両の98%以上に影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-07-24T14:29:05Z) - Integrity Monitoring of 3D Object Detection in Automated Driving Systems using Raw Activation Patterns and Spatial Filtering [12.384452095533396]
ディープニューラルネットワーク(DNN)モデルは、自動運転システム(ADS)における物体検出に広く利用されている。
しかし、そのようなモデルは、重大な安全性に影響を及ぼす可能性のあるエラーを起こしやすい。
このようなエラーを検知することを目的とした検査・自己評価モデルは、ADSの安全な配置において最重要となる。
論文 参考訳(メタデータ) (2024-05-13T10:03:03Z) - SSAP: A Shape-Sensitive Adversarial Patch for Comprehensive Disruption of Monocular Depth Estimation in Autonomous Navigation Applications [7.631454773779265]
SSAP(Shape-Sensitive Adrial Patch)は,自律ナビゲーションアプリケーションにおける単眼深度推定(MDE)を阻害する新しい手法である。
我々のパッチは、推定距離を歪ませたり、システムの観点から消える物体の錯覚を作り出すことによって、2つの異なる方法でMDEを選択的に弱体化させる。
提案手法は平均深度推定誤差が0.5を超え,CNNベースMDEモデルの目標領域の99%に影響を及ぼす。
論文 参考訳(メタデータ) (2024-03-18T07:01:21Z) - On Robustness and Generalization of ML-Based Congestion Predictors to
Valid and Imperceptible Perturbations [9.982978359852494]
最近の研究は、ニューラルネットワークが入力の小さな、慎重に選択された摂動に対して一般的に脆弱であることを示した。
現状のCNNとGNNをベースとした渋滞モデルでは、知覚不能な摂動に対する脆さが示される。
我々の研究は、CADエンジニアがEDAフローにニューラルネットワークベースのメカニズムを統合する際に注意すべきであることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T20:11:47Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - SAAM: Stealthy Adversarial Attack on Monocular Depth Estimation [5.476763798688862]
我々は、アンダーラインMDE (SAAM) 上での新たなアンダーラインStealthy UnderlineAdversarial UnderlineAttacksを提案する。
推定距離を破損させたり、物体を周囲にシームレスに混入させたりすることで、MDEを損なう。
我々はこの研究が、エッジデバイス上でのMDEの文脈における敵攻撃の脅威に光を当てていると信じている。
論文 参考訳(メタデータ) (2023-08-06T13:29:42Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Wasserstein Distances for Stereo Disparity Estimation [62.09272563885437]
既定義の離散値の集合上の分布を出力する、奥行き推定や不均一推定への既存のアプローチ。
これにより、真の深さや差がこれらの値と一致しない場合に、不正確な結果をもたらす。
任意の深さの値を出力できる新しいニューラルネットワークアーキテクチャを用いて、これらの問題に対処する。
論文 参考訳(メタデータ) (2020-07-06T21:37:50Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。