論文の概要: SAAM: Stealthy Adversarial Attack on Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2308.03108v2
- Date: Wed, 20 Dec 2023 07:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 21:59:36.212346
- Title: SAAM: Stealthy Adversarial Attack on Monocular Depth Estimation
- Title(参考訳): SAAM: 単眼深度推定における正反対攻撃
- Authors: Amira Guesmi, Muhammad Abdullah Hanif, Bassem Ouni, Muhammad Shafique
- Abstract要約: 我々は、アンダーラインMDE (SAAM) 上での新たなアンダーラインStealthy UnderlineAdversarial UnderlineAttacksを提案する。
推定距離を破損させたり、物体を周囲にシームレスに混入させたりすることで、MDEを損なう。
我々はこの研究が、エッジデバイス上でのMDEの文脈における敵攻撃の脅威に光を当てていると信じている。
- 参考スコア(独自算出の注目度): 5.476763798688862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the vulnerability of MDE to adversarial
patches. We propose a novel \underline{S}tealthy \underline{A}dversarial
\underline{A}ttacks on \underline{M}DE (SAAM) that compromises MDE by either
corrupting the estimated distance or causing an object to seamlessly blend into
its surroundings. Our experiments, demonstrate that the designed stealthy patch
successfully causes a DNN-based MDE to misestimate the depth of objects. In
fact, our proposed adversarial patch achieves a significant 60\% depth error
with 99\% ratio of the affected region. Importantly, despite its adversarial
nature, the patch maintains a naturalistic appearance, making it inconspicuous
to human observers. We believe that this work sheds light on the threat of
adversarial attacks in the context of MDE on edge devices. We hope it raises
awareness within the community about the potential real-life harm of such
attacks and encourages further research into developing more robust and
adaptive defense mechanisms.
- Abstract(参考訳): 本稿では,敵パッチに対するMDEの脆弱性について検討する。
本稿では, 推定距離を劣化させたり, 物体を周囲にシームレスに混入させたりすることで, MDE を損なう新規な \underline{S}tealthy \underline{A}dversarial \underline{A}ttacks on \underline{M}DE (SAAM) を提案する。
我々の実験は、デザインされたステルスパッチがDNNベースのMDEにオブジェクトの深さを誤って推定することに成功したことを実証した。
実際,提案した対向パッチは,影響領域の99.%の深さ誤差を有意に達成している。
重要なのは、その敵対的な性質にもかかわらず、パッチは自然主義的な外観を保ち、人間の観察者には目立たないことである。
我々はこの研究が、エッジデバイス上でのMDEの文脈における敵攻撃の脅威に光を当てていると信じている。
このような攻撃による現実的な被害に対するコミュニティ内の認識を高め、より堅牢で適応的な防御メカニズムの開発に関するさらなる研究を促進することを願っている。
関連論文リスト
- BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - APARATE: Adaptive Adversarial Patch for CNN-based Monocular Depth
Estimation for Autonomous Navigation [8.187375378049353]
単眼深度推定(MDE)は、革新的なアーキテクチャ、すなわち畳み込みニューラルネットワーク(CNN)とトランスフォーマーの統合により、性能が大幅に向上した。
これらのモデルの敵攻撃に対する感受性は、特に安全性とセキュリティが最優先の領域において注目に値する関心事となっている。
この懸念は、正確なシーン理解が重要である自律運転やロボットナビゲーションといったアプリケーションにおいて重要な役割を担っているため、MDEにとって特に重みとなる。
論文 参考訳(メタデータ) (2023-03-02T15:31:53Z) - Adversarial Training of Self-supervised Monocular Depth Estimation
against Physical-World Attacks [17.28712660119884]
本研究では, 地中深度を使わずに, 合成ビューに基づく自己教師型MDEモデルの対戦訓練手法を提案する。
トレーニングにおけるL0ノルム束縛摂動を用いた物理世界攻撃に対する対角的堅牢性を向上させる。
2つの代表的MDEネットワークの結果から,良質な性能劣化を伴わない種々の敵攻撃に対して,より堅牢性を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-31T09:12:16Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - Give Me Your Attention: Dot-Product Attention Considered Harmful for
Adversarial Patch Robustness [15.761916307614145]
敵のパッチ攻撃に直面する場合、(スケールした)ドットプロダクティビティのグローバルな推論が、重大な脆弱性の原因になり得ることを示す。
本稿では,この脆弱性を的確に狙う敵パッチ作成のための新たな敵目標を提案する。
入力の0.5%を占める敵のパッチは、ImageNet上のViTの0%程度の堅牢な精度をもたらし、MS上のDETRのmAPを3%未満に削減できることがわかった。
論文 参考訳(メタデータ) (2022-03-25T13:26:27Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Internal Wasserstein Distance for Adversarial Attack and Defense [40.27647699862274]
本研究では,サンプルと対比例の画像類似度を測定するための内部Wasserstein距離(IWD)を提案する。
原試料中のパッチの分布を捉えた新しい攻撃手法を開発した。
我々はまた,未知の敵の例から守るためのロバストなモデルを学ぶための新しい防御手法も構築する。
論文 参考訳(メタデータ) (2021-03-13T02:08:02Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。