論文の概要: Depth Anything at Any Condition
- arxiv url: http://arxiv.org/abs/2507.01634v1
- Date: Wed, 02 Jul 2025 12:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.184419
- Title: Depth Anything at Any Condition
- Title(参考訳): あらゆる条件における深さ
- Authors: Boyuan Sun, Modi Jin, Bowen Yin, Qibin Hou,
- Abstract要約: 多様な環境条件を扱える基礎的単眼深度推定(MDE)モデルであるDepth Anything at Any Condition (DepthAnything-AC)を提案する。
これまでのMDEモデルは、一般的な場面で印象的なパフォーマンスを達成できたが、複雑なオープンワールド環境ではうまく機能しなかった。
比較的少量のラベル付きデータしか必要としない、教師なし整合正則化微調整パラダイムを提案する。
- 参考スコア(独自算出の注目度): 21.800621254831718
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Depth Anything at Any Condition (DepthAnything-AC), a foundation monocular depth estimation (MDE) model capable of handling diverse environmental conditions. Previous foundation MDE models achieve impressive performance across general scenes but not perform well in complex open-world environments that involve challenging conditions, such as illumination variations, adverse weather, and sensor-induced distortions. To overcome the challenges of data scarcity and the inability of generating high-quality pseudo-labels from corrupted images, we propose an unsupervised consistency regularization finetuning paradigm that requires only a relatively small amount of unlabeled data. Furthermore, we propose the Spatial Distance Constraint to explicitly enforce the model to learn patch-level relative relationships, resulting in clearer semantic boundaries and more accurate details. Experimental results demonstrate the zero-shot capabilities of DepthAnything-AC across diverse benchmarks, including real-world adverse weather benchmarks, synthetic corruption benchmarks, and general benchmarks. Project Page: https://ghost233lism.github.io/depthanything-AC-page Code: https://github.com/HVision-NKU/DepthAnythingAC
- Abstract(参考訳): 多様な環境条件を扱える基礎的単眼深度推定(MDE)モデルであるDepth Anything at Any Condition (DepthAnything-AC)を提案する。
これまでのMDEモデルは、一般的な場面で印象的な性能を達成するが、照明のバリエーション、悪天候、センサーによる歪みといった困難な状況にかかわる複雑なオープンワールド環境ではうまく機能しない。
データ不足と劣化画像から高品質な擬似ラベルを生成することの難しさを克服するために、比較的少量の未ラベルデータしか必要としない教師なし整合正規化微調整パラダイムを提案する。
さらに、パッチレベルの相対関係を学習するためにモデルを明示的に強制する空間距離制約を提案し、より明確な意味境界とより正確な詳細をもたらす。
DepthAnything-ACのゼロショット能力は、実際の悪天候ベンチマーク、合成汚職ベンチマーク、一般的なベンチマークなど、さまざまなベンチマークで実証された。
Project Page: https://ghost233lism.github.io/depthanything-AC-page Code: https://github.com/HVision-NKU/DepthAnythingAC
関連論文リスト
- Evaluating Robustness of Monocular Depth Estimation with Procedural Scene Perturbations [55.4735586739093]
我々は,系統的ロバストネス評価を可能にする新しいベンチマークであるPDEを紹介する。
PDEは手続き生成を使用して、様々な制御された摂動に対する堅牢性をテストする3Dシーンを生成する。
我々の分析は、最先端の深度モデルではどのような摂動が困難なのか、興味深い結果をもたらす。
論文 参考訳(メタデータ) (2025-07-01T17:33:48Z) - HazyDet: Open-Source Benchmark for Drone-View Object Detection with Depth-Cues in Hazy Scenes [54.24350833692194]
HazyDetは、ヘイジーな環境でドローンビューオブジェクトを検出するために特別に設計された、最初の大規模ベンチマークである。
本稿では,迷路による視覚劣化に対処するため,Depth-Conditioned Detector (DeCoDet)を提案する。
HazyDetは、検出アルゴリズムを前進させるための挑戦的で現実的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - Learning Real-World Image De-Weathering with Imperfect Supervision [57.748585821252824]
既存の現実世界のデヒータリングデータセットは、接地トラス画像と入力された劣化画像の間に、一貫性のない照明、位置、テクスチャを示すことが多い。
我々は、入力劣化画像と可能な限り一貫性のある擬似ラベルを生成するための一貫性ラベルコンストラクタ(CLC)を開発した。
我々は,従来の不完全ラベルと擬似ラベルを組み合わせることで,情報割当戦略による脱ウェザリングモデルを共同で監督する。
論文 参考訳(メタデータ) (2023-10-23T14:02:57Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。