論文の概要: Learning Depth from Past Selves: Self-Evolution Contrast for Robust Depth Estimation
- arxiv url: http://arxiv.org/abs/2511.15167v1
- Date: Wed, 19 Nov 2025 06:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.663798
- Title: Learning Depth from Past Selves: Self-Evolution Contrast for Robust Depth Estimation
- Title(参考訳): 過去からの深度学習:ロバスト深さ推定のための自己進化コントラスト
- Authors: Jing Cao, Kui Jiang, Shenyi Li, Xiaocheng Feng, Yong Huang,
- Abstract要約: SEC-Depthは自己監督型頑健な深度推定タスクのための自己進化型コントラスト学習フレームワークである。
本手法は多様なベースラインモデルにシームレスに統合し,ゼロショット評価におけるロバスト性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 42.74561859065153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised depth estimation has gained significant attention in autonomous driving and robotics. However, existing methods exhibit substantial performance degradation under adverse weather conditions such as rain and fog, where reduced visibility critically impairs depth prediction. To address this issue, we propose a novel self-evolution contrastive learning framework called SEC-Depth for self-supervised robust depth estimation tasks. Our approach leverages intermediate parameters generated during training to construct temporally evolving latency models. Using these, we design a self-evolution contrastive scheme to mitigate performance loss under challenging conditions. Concretely, we first design a dynamic update strategy of latency models for the depth estimation task to capture optimization states across training stages. To effectively leverage latency models, we introduce a self-evolution contrastive Loss (SECL) that treats outputs from historical latency models as negative samples. This mechanism adaptively adjusts learning objectives while implicitly sensing weather degradation severity, reducing the needs for manual intervention. Experiments show that our method integrates seamlessly into diverse baseline models and significantly enhances robustness in zero-shot evaluations.
- Abstract(参考訳): 自己監督型深度推定は、自律走行とロボット工学において大きな注目を集めている。
しかし, 雨や霧などの悪天候条件下では, 視界の低下が深度予測を著しく損なうため, 性能が著しく低下する。
この問題に対処するために, SEC-Depth という新たな自己進化型コントラスト学習フレームワークを提案する。
提案手法は,トレーニング中に発生する中間パラメータを利用して,時間的に変化する遅延モデルを構築する。
これらを用いて,困難条件下での性能損失を軽減する自己進化コントラスト方式を設計する。
具体的には,まず,深度推定タスクのための遅延モデルの動的更新戦略を設計し,トレーニング段階全体にわたって最適化状態をキャプチャする。
遅延モデルを効果的に活用するために、過去の遅延モデルからの出力を負のサンプルとして扱う自己進化コントラストロス(SECL)を導入する。
この機構は、暗黙的に天候劣化の重症度を検出しながら学習目標を適応的に調整し、手作業による介入の必要性を減らす。
実験により,本手法は多様なベースラインモデルにシームレスに統合され,ゼロショット評価におけるロバスト性を大幅に向上することが示された。
関連論文リスト
- DepthART: Monocular Depth Estimation as Autoregressive Refinement Task [2.3884184860468136]
DepthART - Depth Autoregressive Refinement Taskとして定式化された新しいトレーニング手法を紹介する。
モデル自身の予測を入力として利用することにより、目標を残留最小化とし、トレーニングと推論手順の相違を効果的に軽減する。
提案手法を用いてHypersimデータセットをトレーニングすると、既存の生成的および識別的ベースラインと比較して、複数の未確認ベンチマークで優れた結果が得られる。
論文 参考訳(メタデータ) (2024-09-23T13:36:34Z) - Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [27.677765887774186]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - Learning Robust Precipitation Forecaster by Temporal Frame Interpolation [65.5045412005064]
本研究では,空間的不一致に対するレジリエンスを示す頑健な降水予測モデルを構築した。
提案手法は,textit4cast'23コンペティションの移行学習リーダーボードにおいて,textit1位を確保したモデルにおいて,予測精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-11-30T08:22:08Z) - The Surprising Effectiveness of Diffusion Models for Optical Flow and
Monocular Depth Estimation [42.48819460873482]
拡散確率モデルは、その印象的な忠実さと多様性で画像生成を変換した。
また,タスク固有のアーキテクチャや損失関数を使わずに,光学的フローと単眼深度の推定に優れることを示す。
論文 参考訳(メタデータ) (2023-06-02T21:26:20Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。