論文の概要: Adversarial Training of Self-supervised Monocular Depth Estimation
against Physical-World Attacks
- arxiv url: http://arxiv.org/abs/2301.13487v1
- Date: Tue, 31 Jan 2023 09:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 17:05:10.362452
- Title: Adversarial Training of Self-supervised Monocular Depth Estimation
against Physical-World Attacks
- Title(参考訳): 物理世界攻撃に対する自己監督型単眼深度推定の逆トレーニング
- Authors: Zhiyuan Cheng, James Liang, Guanhong Tao, Dongfang Liu, Xiangyu Zhang
- Abstract要約: 本研究では, 地中深度を使わずに, 合成ビューに基づく自己教師型MDEモデルの対戦訓練手法を提案する。
トレーニングにおけるL0ノルム束縛摂動を用いた物理世界攻撃に対する対角的堅牢性を向上させる。
2つの代表的MDEネットワークの結果から,良質な性能劣化を伴わない種々の敵攻撃に対して,より堅牢性を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 17.28712660119884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular Depth Estimation (MDE) is a critical component in applications such
as autonomous driving. There are various attacks against MDE networks. These
attacks, especially the physical ones, pose a great threat to the security of
such systems. Traditional adversarial training method requires ground-truth
labels hence cannot be directly applied to self-supervised MDE that does not
have ground-truth depth. Some self-supervised model hardening techniques (e.g.,
contrastive learning) ignore the domain knowledge of MDE and can hardly achieve
optimal performance. In this work, we propose a novel adversarial training
method for self-supervised MDE models based on view synthesis without using
ground-truth depth. We improve adversarial robustness against physical-world
attacks using L0-norm-bounded perturbation in training. We compare our method
with supervised learning based and contrastive learning based methods that are
tailored for MDE. Results on two representative MDE networks show that we
achieve better robustness against various adversarial attacks with nearly no
benign performance degradation.
- Abstract(参考訳): 単眼深度推定(MDE)は自律運転などのアプリケーションにおいて重要な要素である。
MDEネットワークに対する様々な攻撃がある。
これらの攻撃、特に物理的攻撃は、そのようなシステムのセキュリティに大きな脅威となる。
従来の逆行訓練法では, 地中深度を持たない自監督型MDEには直接適用できないため, 地中深度ラベルが必要である。
いくつかの自己教師型モデル硬化技術(例えば、対照的な学習)は、MDEのドメイン知識を無視し、最適性能を達成できない。
本研究では,地中深度を使わずに,ビュー合成に基づく自己教師型MDEモデルの新たな逆トレーニング手法を提案する。
トレーニングにおけるL0ノルム束縛摂動を用いた物理世界攻撃に対する対角的堅牢性を向上させる。
本手法をmdeに適した教師付き学習法と対比学習法を比較した。
2つの代表的MDEネットワークの結果から,良質な性能劣化を伴わない種々の敵攻撃に対して,より堅牢性が得られることが示された。
関連論文リスト
- Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training [61.35809887986553]
我々は、SCAT(stabilized Conflict-Optimization Adversarial Training)という、汎用的な敵訓練フレームワークを提案する。
SCATは、安定性と一般化のバランスを達成するために、敵データ拡張を自己教師付きMDE手法に統合する。
5つのベンチマーク実験により、SCATは最先端の性能を達成でき、既存の自己監督型MDE法の一般化能力を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2024-11-04T15:06:57Z) - Self-supervised Adversarial Training of Monocular Depth Estimation against Physical-World Attacks [36.16206095819624]
単眼深度推定は、自律運転のような応用において重要な役割を果たす。
接地木深度を欠くMDEモデルには, 接地木深度を必要とする従来の対地木深度学習法は直接適用されない。
我々は,MDEモデルに対して,地底深度を必要とせずにビュー合成を活用する,新たな自己教師型対向訓練手法を提案する。
論文 参考訳(メタデータ) (2024-06-09T17:02:28Z) - To Generate or Not? Safety-Driven Unlearned Diffusion Models Are Still Easy To Generate Unsafe Images ... For Now [22.75295925610285]
拡散モデル(DM)は、現実的で複雑な画像の生成に革命をもたらした。
DMはまた、有害なコンテンツの生成やデータ著作権の侵害など、潜在的な安全上の危険性も導入している。
安全駆動の未学習技術の発展にもかかわらず、その有効性に対する疑念は続いている。
論文 参考訳(メタデータ) (2023-10-18T10:36:34Z) - SAAM: Stealthy Adversarial Attack on Monocular Depth Estimation [5.476763798688862]
我々は、アンダーラインMDE (SAAM) 上での新たなアンダーラインStealthy UnderlineAdversarial UnderlineAttacksを提案する。
推定距離を破損させたり、物体を周囲にシームレスに混入させたりすることで、MDEを損なう。
我々はこの研究が、エッジデバイス上でのMDEの文脈における敵攻撃の脅威に光を当てていると信じている。
論文 参考訳(メタデータ) (2023-08-06T13:29:42Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。