論文の概要: Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2403.05056v1
- Date: Fri, 8 Mar 2024 05:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:56:30.386049
- Title: Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation
- Title(参考訳): ロバスト単眼深度推定のための安定拡散前処理
- Authors: Yifan Mao, Jian Liu, Xianming Liu
- Abstract要約: 本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
- 参考スコア(独自算出の注目度): 33.140210057065644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation is a crucial task in computer vision. While
existing methods have shown impressive results under standard conditions, they
often face challenges in reliably performing in scenarios such as low-light or
rainy conditions due to the absence of diverse training data. This paper
introduces a novel approach named Stealing Stable Diffusion (SSD) prior for
robust monocular depth estimation. The approach addresses this limitation by
utilizing stable diffusion to generate synthetic images that mimic challenging
conditions. Additionally, a self-training mechanism is introduced to enhance
the model's depth estimation capability in such challenging environments. To
enhance the utilization of the stable diffusion prior further, the DINOv2
encoder is integrated into the depth model architecture, enabling the model to
leverage rich semantic priors and improve its scene understanding. Furthermore,
a teacher loss is introduced to guide the student models in acquiring
meaningful knowledge independently, thus reducing their dependency on the
teacher models. The effectiveness of the approach is evaluated on nuScenes and
Oxford RobotCar, two challenging public datasets, with the results showing the
efficacy of the method. Source code and weights are available at:
https://github.com/hitcslj/SSD.
- Abstract(参考訳): 単眼深度推定はコンピュータビジョンにおいて重要な課題である。
既存の手法は標準条件下では印象的な結果を示したが、多種多様なトレーニングデータがないため、低照度や雨季などのシナリオで確実に実行するという課題に直面することが多い。
本稿では,単分子深度推定に先立って,ステアリング安定拡散(SSD)という新しい手法を提案する。
このアプローチでは、安定拡散を利用して困難な条件を模倣した合成画像を生成することで、この制限に対処している。
さらに,このような困難環境下でのモデル深度推定能力を高めるために,自己学習機構を導入する。
さらに、安定した拡散の活用性を高めるため、ディノブ2エンコーダは深度モデルアーキテクチャに統合され、モデルが豊富な意味的優先順位を活用し、シーン理解を改善することができる。
さらに、教師の損失は、教師モデルへの依存を減らし、意味のある知識を個別に獲得するために学生モデルを指導するために導入される。
本手法の有効性は,2つの公的なデータセットであるnuscenesとoxford robotcarを用いて評価し,その効果を示す。
ソースコードとウェイトは、https://github.com/hitcslj/SSDで入手できる。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [21.939618694037108]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Continual Learning of Unsupervised Monocular Depth from Videos [19.43053045216986]
連続的教師なし深度推定(CUDE)の課題を捉える枠組みを導入する。
本稿では,時間的整合性を利用したリハーサルベースのデュアルメモリ手法MonoDepthCLを提案する。
論文 参考訳(メタデータ) (2023-11-04T12:36:07Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - The Surprising Effectiveness of Diffusion Models for Optical Flow and
Monocular Depth Estimation [42.48819460873482]
拡散確率モデルは、その印象的な忠実さと多様性で画像生成を変換した。
また,タスク固有のアーキテクチャや損失関数を使わずに,光学的フローと単眼深度の推定に優れることを示す。
論文 参考訳(メタデータ) (2023-06-02T21:26:20Z) - Self-Supervised Monocular Depth Estimation with Self-Reference
Distillation and Disparity Offset Refinement [15.012694052674899]
自己教師付き単分子深度推定を改善するための2つの新しいアイデアを提案する。
我々は,教師が訓練の時期に合わせて更新したパラメータ最適化モデルを用いて,さらなる指導を行う。
我々は,高次特徴量と低次特徴量とのコンテキスト整合性を利用して,マルチスケールの相違オフセットを得る。
論文 参考訳(メタデータ) (2023-02-20T06:28:52Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。