論文の概要: APARATE: Adaptive Adversarial Patch for CNN-based Monocular Depth
Estimation for Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2303.01351v1
- Date: Thu, 2 Mar 2023 15:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:43:56.648946
- Title: APARATE: Adaptive Adversarial Patch for CNN-based Monocular Depth
Estimation for Autonomous Navigation
- Title(参考訳): aparate: 自律ナビゲーションのためのcnnに基づく単眼深度推定のための適応逆パッチ
- Authors: Amira Guesmi, Muhammad Abdullah Hanif, Ihsen Alouani, and Muhammad
Shafique
- Abstract要約: 畳み込みニューラルネットワーク(CNN)による実質的な性能向上を目撃した単眼深度推定(MDE)
CNNは敵の攻撃に弱いため、安全クリティカルでセキュリティに敏感なシステムに深刻な懸念が生じる。
本稿では,MDE を選択的に回避できる新しい適応型対向パッチ (APARATE) を提案する。
- 参考スコア(独自算出の注目度): 11.509032132972065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, monocular depth estimation (MDE) has witnessed a substantial
performance improvement due to convolutional neural networks (CNNs). However,
CNNs are vulnerable to adversarial attacks, which pose serious concerns for
safety-critical and security-sensitive systems. Specifically, adversarial
attacks can have catastrophic impact on MDE given its importance for scene
understanding in applications like autonomous driving and robotic navigation.
To physically assess the vulnerability of CNN-based depth prediction methods,
recent work tries to design adversarial patches against MDE. However, these
methods are not powerful enough to fully fool the vision system in a
systemically threatening manner. In fact, their impact is partial and locally
limited; they mislead the depth prediction of only the overlapping region with
the input image regardless of the target object size, shape and location. In
this paper, we investigate MDE vulnerability to adversarial patches in a more
comprehensive manner. We propose a novel adaptive adversarial patch (APARATE)
that is able to selectively jeopardize MDE by either corrupting the estimated
distance, or simply manifesting an object as disappeared for the autonomous
system. Specifically, APARATE is optimized to be shape and scale-aware, and its
impact adapts to the target object instead of being limited to the immediate
neighborhood. Our proposed patch achieves more than $14~meters$ mean depth
estimation error, with $99\%$ of the target region being affected. We believe
this work highlights the threat of adversarial attacks in the context of MDE,
and we hope it would alert the community to the real-life potential harm of
this attack and motivate investigating more robust and adaptive defenses for
autonomous robots.
- Abstract(参考訳): 近年では、畳み込みニューラルネットワーク(CNN)により、単眼深度推定(MDE)が大幅に改善されている。
しかし、cnnは敵の攻撃に弱いため、安全クリティカルでセキュリティに敏感なシステムには深刻な懸念がある。
特に、自律運転やロボットナビゲーションなどの応用におけるシーン理解の重要性から、敵対的攻撃はMDEに壊滅的な影響を及ぼす可能性がある。
CNNに基づく深度予測手法の脆弱性を物理的に評価するために、最近の研究はMDEに対する敵パッチを設計しようとしている。
しかし、これらの手法は、システム的に脅かされる方法でビジョンシステムを完全に騙すほど強力ではない。
実際、それらの影響は部分的かつ局所的に限られており、対象物のサイズ、形状、位置に関わらず、入力画像と重なり合う領域のみの深さ予測を誤解させる。
本稿では,敵パッチに対するMDE脆弱性をより包括的に調査する。
本稿では,推定距離を乱すか,あるいは自律系で消失した物体を単に示すことによって,mdeを選択的に危うくすることができる新しい適応逆境パッチ(aparate)を提案する。
具体的には、aparateは形状とスケールアウェアに最適化されており、その影響は近くのものに限らずターゲットオブジェクトに適応する。
提案したパッチは,平均深度推定誤差が14〜ms以上で,対象領域の99.%が影響を受ける。
我々は、この研究がMDEの文脈における敵対的攻撃の脅威を強調していると信じており、この攻撃の現実的な潜在的害をコミュニティに警告し、自律ロボットのより堅牢で適応的な防御について調査する動機になることを期待している。
関連論文リスト
- Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - Adversarial Manhole: Challenging Monocular Depth Estimation and Semantic Segmentation Models with Patch Attack [1.4272256806865107]
本稿では,マンホールカバーを模倣してMDEモデルとSSモデルを偽装する実用的パッチを用いた,新たな逆襲攻撃を提案する。
我々はDepth Planar Mappingを使ってこれらのパッチを道路表面に正確に配置し、攻撃の有効性を高める。
以上の結果から,MDEでは相対誤差が43%,SSでは96%であった。
論文 参考訳(メタデータ) (2024-08-27T08:48:21Z) - Physical Adversarial Attack on Monocular Depth Estimation via Shape-Varying Patches [8.544722337960359]
形状変化パッチによる攻撃(ASP)というフレームワークを用いて,物理に基づく単眼深度推定に対する逆攻撃を提案する。
攻撃の柔軟性と効率を高めるために、四角形、長方形、円形のマスクを含む様々なマスク形状を導入する。
実験結果から, 目標車両の平均深度誤差は18mであり, パッチ面積は1/9であり, 目標車両の98%以上に影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-07-24T14:29:05Z) - SSAP: A Shape-Sensitive Adversarial Patch for Comprehensive Disruption of Monocular Depth Estimation in Autonomous Navigation Applications [7.631454773779265]
SSAP(Shape-Sensitive Adrial Patch)は,自律ナビゲーションアプリケーションにおける単眼深度推定(MDE)を阻害する新しい手法である。
我々のパッチは、推定距離を歪ませたり、システムの観点から消える物体の錯覚を作り出すことによって、2つの異なる方法でMDEを選択的に弱体化させる。
提案手法は平均深度推定誤差が0.5を超え,CNNベースMDEモデルの目標領域の99%に影響を及ぼす。
論文 参考訳(メタデータ) (2024-03-18T07:01:21Z) - On Robustness and Generalization of ML-Based Congestion Predictors to
Valid and Imperceptible Perturbations [9.982978359852494]
最近の研究は、ニューラルネットワークが入力の小さな、慎重に選択された摂動に対して一般的に脆弱であることを示した。
現状のCNNとGNNをベースとした渋滞モデルでは、知覚不能な摂動に対する脆さが示される。
我々の研究は、CADエンジニアがEDAフローにニューラルネットワークベースのメカニズムを統合する際に注意すべきであることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T20:11:47Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - SAAM: Stealthy Adversarial Attack on Monocular Depth Estimation [5.476763798688862]
我々は、アンダーラインMDE (SAAM) 上での新たなアンダーラインStealthy UnderlineAdversarial UnderlineAttacksを提案する。
推定距離を破損させたり、物体を周囲にシームレスに混入させたりすることで、MDEを損なう。
我々はこの研究が、エッジデバイス上でのMDEの文脈における敵攻撃の脅威に光を当てていると信じている。
論文 参考訳(メタデータ) (2023-08-06T13:29:42Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。