論文の概要: Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training
- arxiv url: http://arxiv.org/abs/2411.02149v2
- Date: Tue, 05 Nov 2024 03:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:04.771702
- Title: Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training
- Title(参考訳): 自己教師型単眼深度推定における領域一般化の安定化学習による改善
- Authors: Yuanqi Yao, Gang Wu, Kui Jiang, Siao Liu, Jian Kuai, Xianming Liu, Junjun Jiang,
- Abstract要約: 我々は、SCAT(stabilized Conflict-Optimization Adversarial Training)という、汎用的な敵訓練フレームワークを提案する。
SCATは、安定性と一般化のバランスを達成するために、敵データ拡張を自己教師付きMDE手法に統合する。
5つのベンチマーク実験により、SCATは最先端の性能を達成でき、既存の自己監督型MDE法の一般化能力を大幅に向上できることが示された。
- 参考スコア(独自算出の注目度): 61.35809887986553
- License:
- Abstract: Learning a self-supervised Monocular Depth Estimation (MDE) model with great generalization remains significantly challenging. Despite the success of adversarial augmentation in the supervised learning generalization, naively incorporating it into self-supervised MDE models potentially causes over-regularization, suffering from severe performance degradation. In this paper, we conduct qualitative analysis and illuminate the main causes: (i) inherent sensitivity in the UNet-alike depth network and (ii) dual optimization conflict caused by over-regularization. To tackle these issues, we propose a general adversarial training framework, named Stabilized Conflict-optimization Adversarial Training (SCAT), integrating adversarial data augmentation into self-supervised MDE methods to achieve a balance between stability and generalization. Specifically, we devise an effective scaling depth network that tunes the coefficients of long skip connection and effectively stabilizes the training process. Then, we propose a conflict gradient surgery strategy, which progressively integrates the adversarial gradient and optimizes the model toward a conflict-free direction. Extensive experiments on five benchmarks demonstrate that SCAT can achieve state-of-the-art performance and significantly improve the generalization capability of existing self-supervised MDE methods.
- Abstract(参考訳): 自己教師付き単眼深度推定(MDE)モデルを非常に一般化した学習は依然として大きな課題である。
教師付き学習一般化における敵対的増強の成功にもかかわらず、自己監督型MDEモデルにそれを内在的に組み込むことは、厳しい性能劣化を招き、過剰な正規化を引き起こす可能性がある。
本稿では,定性的分析を行い,主な原因について述べる。
(i)UNetライクな深度ネットワークと固有感度
(II)過正規化による二重最適化競合。
これらの課題に対処するため、我々は、安定化紛争最適化訓練(SCAT)と呼ばれる一般的な敵訓練フレームワークを提案し、敵データ拡張を自己監督型MDE手法に統合し、安定性と一般化のバランスをとる。
具体的には、長いスキップ接続の係数を調整し、トレーニングプロセスを効果的に安定化する効果的なスケーリング深度ネットワークを考案する。
そこで, 対向勾配を段階的に統合し, コンフリクトフリー方向に向けてモデルを最適化するコンフリクト勾配手術戦略を提案する。
5つのベンチマークにおいて、SCATは最先端の性能を実現し、既存の自己監督型MDE法の一般化能力を大幅に向上できることを示した。
関連論文リスト
- Conflict-Aware Adversarial Training [29.804312958830636]
我々は、重み付け平均法は、標準的な性能と対向ロバスト性に対する最良のトレードオフを提供していないと論じる。
テキストbf競合認識適応訓練(CA-AT)という,標準と対向的損失の凸結合のための競合認識因子を用いた対向的トレーニングのための新たなトレードオフパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-21T23:44:03Z) - Self-supervised Adversarial Training of Monocular Depth Estimation against Physical-World Attacks [36.16206095819624]
単眼深度推定は、自律運転のような応用において重要な役割を果たす。
接地木深度を欠くMDEモデルには, 接地木深度を必要とする従来の対地木深度学習法は直接適用されない。
我々は,MDEモデルに対して,地底深度を必要とせずにビュー合成を活用する,新たな自己教師型対向訓練手法を提案する。
論文 参考訳(メタデータ) (2024-06-09T17:02:28Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Dynamic Perturbation-Adaptive Adversarial Training on Medical Image
Classification [9.039586043401972]
敵の例(AE)は生データと知覚不可能な類似性を示し、ネットワークの堅牢性に対する深刻な懸念を提起した。
本稿では,ATを動的学習環境に配置し,適応型データレベルの摂動を生成する動的摂動適応対向訓練(DPAAT)手法を提案する。
HAM10000データセットの総合的な試験により、DPAATはより堅牢性の向上と一般化保存を達成できただけでなく、平均精度と解釈可能性を大幅に向上した。
論文 参考訳(メタデータ) (2024-03-11T15:16:20Z) - Building Robust Ensembles via Margin Boosting [98.56381714748096]
敵のロバスト性においては、単一のモデルは通常、全ての敵の攻撃に対して十分な力を持っていない。
我々は最大利得のアンサンブルを学習するアルゴリズムを開発した。
提案アルゴリズムは,既存のアンサンブル技術に勝るだけでなく,エンド・ツー・エンドで訓練された大規模モデルにも勝ることを示す。
論文 参考訳(メタデータ) (2022-06-07T14:55:58Z) - Alleviating Robust Overfitting of Adversarial Training With Consistency
Regularization [9.686724616328874]
対戦訓練(AT)は、ディープニューラルネットワーク(DNN)を敵の攻撃から守る最も効果的な方法の1つであることが証明されている。
強靭性は特定の段階で急激に低下し、常にATの間に存在する。
半教師付き学習の一般的なテクニックである一貫性の正規化は、ATと同じような目標を持ち、堅牢なオーバーフィッティングを軽減するために使用できる。
論文 参考訳(メタデータ) (2022-05-24T03:18:43Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - On the Convergence and Robustness of Adversarial Training [134.25999006326916]
Project Gradient Decent (PGD) によるアドリアリトレーニングが最も効果的である。
生成した逆数例の収束性を向上させるためのテクトダイナミックトレーニング戦略を提案する。
その結果,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-12-15T17:54:08Z) - On the Generalization Properties of Adversarial Training [21.79888306754263]
本稿では,汎用的対数学習アルゴリズムの一般化性能について検討する。
滑らかさとL1のペナル化がモデルの対向的堅牢性をどのように改善するかを示すために、一連の数値的研究が行われた。
論文 参考訳(メタデータ) (2020-08-15T02:32:09Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。