論文の概要: Self-supervised Adversarial Training of Monocular Depth Estimation against Physical-World Attacks
- arxiv url: http://arxiv.org/abs/2406.05857v1
- Date: Sun, 9 Jun 2024 17:02:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 17:47:48.391179
- Title: Self-supervised Adversarial Training of Monocular Depth Estimation against Physical-World Attacks
- Title(参考訳): 物理世界攻撃に対する単眼深度推定の自己教師付き対人訓練
- Authors: Zhiyuan Cheng, Cheng Han, James Liang, Qifan Wang, Xiangyu Zhang, Dongfang Liu,
- Abstract要約: 単眼深度推定は、自律運転のような応用において重要な役割を果たす。
接地木深度を欠くMDEモデルには, 接地木深度を必要とする従来の対地木深度学習法は直接適用されない。
我々は,MDEモデルに対して,地底深度を必要とせずにビュー合成を活用する,新たな自己教師型対向訓練手法を提案する。
- 参考スコア(独自算出の注目度): 36.16206095819624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular Depth Estimation (MDE) plays a vital role in applications such as autonomous driving. However, various attacks target MDE models, with physical attacks posing significant threats to system security. Traditional adversarial training methods, which require ground-truth labels, are not directly applicable to MDE models that lack ground-truth depth. Some self-supervised model hardening techniques (e.g., contrastive learning) overlook the domain knowledge of MDE, resulting in suboptimal performance. In this work, we introduce a novel self-supervised adversarial training approach for MDE models, leveraging view synthesis without the need for ground-truth depth. We enhance adversarial robustness against real-world attacks by incorporating L_0-norm-bounded perturbation during training. We evaluate our method against supervised learning-based and contrastive learning-based approaches specifically designed for MDE. Our experiments with two representative MDE networks demonstrate improved robustness against various adversarial attacks, with minimal impact on benign performance.
- Abstract(参考訳): 単眼深度推定(MDE)は自律運転などの応用において重要な役割を果たす。
しかし、様々な攻撃はMDEモデルをターゲットにしており、物理的攻撃はシステムのセキュリティに重大な脅威をもたらす。
接地木深度を欠くMDEモデルには, 接地木深度を必要とする従来の対地木深度学習法は直接適用されない。
いくつかの自己教師型モデル硬化技術(例えば、対照的な学習)は、MDEのドメイン知識を見落とし、準最適性能をもたらす。
本研究では,MDEモデルに対して,地底深度を必要とせずにビュー合成を活用する,新たな自己教師型対向訓練手法を提案する。
トレーニング中にL_0-norm-bounded perturbation(L_0-norm-bounded perturbation)を組み込むことにより,現実の攻撃に対する敵の堅牢性を高める。
MDEに特化して設計された教師付き学習ベースおよびコントラスト型学習ベースアプローチに対して,本手法の評価を行った。
2つの代表的MDEネットワークを用いた実験により,種々の敵攻撃に対する堅牢性が向上し,良質な性能への影響が最小限に抑えられた。
関連論文リスト
- Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training [61.35809887986553]
我々は、SCAT(stabilized Conflict-Optimization Adversarial Training)という、汎用的な敵訓練フレームワークを提案する。
SCATは、安定性と一般化のバランスを達成するために、敵データ拡張を自己教師付きMDE手法に統合する。
5つのベンチマーク実験により、SCATは最先端の性能を達成でき、既存の自己監督型MDE法の一般化能力を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2024-11-04T15:06:57Z) - Black-box Adversarial Attacks against Dense Retrieval Models: A
Multi-view Contrastive Learning Method [115.29382166356478]
本稿では,敵探索攻撃(AREA)タスクを紹介する。
DRモデルは、DRモデルによって取得された候補文書の初期セットの外側にあるターゲット文書を取得するように、DRモデルを騙すことを目的としている。
NRM攻撃で報告された有望な結果は、DRモデルに一般化されない。
マルチビュー表現空間における対照的な学習問題として,DRモデルに対する攻撃を形式化する。
論文 参考訳(メタデータ) (2023-08-19T00:24:59Z) - MIXPGD: Hybrid Adversarial Training for Speech Recognition Systems [18.01556863687433]
ASRシステムのモデルの堅牢性を向上させるために,混合PGD逆行訓練法を提案する。
標準的な対人訓練では、教師なしまたは教師なしの手法を利用して、敵のサンプルを生成する。
我々は,モデルロバスト性向上に役立つ新しい対向サンプルを生成するために,教師付きアプローチと教師なしアプローチの両機能を融合する。
論文 参考訳(メタデータ) (2023-03-10T07:52:28Z) - Adversarial Training of Self-supervised Monocular Depth Estimation
against Physical-World Attacks [17.28712660119884]
本研究では, 地中深度を使わずに, 合成ビューに基づく自己教師型MDEモデルの対戦訓練手法を提案する。
トレーニングにおけるL0ノルム束縛摂動を用いた物理世界攻撃に対する対角的堅牢性を向上させる。
2つの代表的MDEネットワークの結果から,良質な性能劣化を伴わない種々の敵攻撃に対して,より堅牢性を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-31T09:12:16Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。