論文の概要: AURORA-KITTI: Any-Weather Depth Completion and Denoising in the Wild
- arxiv url: http://arxiv.org/abs/2603.14701v1
- Date: Mon, 16 Mar 2026 01:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.976015
- Title: AURORA-KITTI: Any-Weather Depth Completion and Denoising in the Wild
- Title(参考訳): AURORA-KITTI: 野生のあらゆる水深の完了と脱臭
- Authors: Yiting Wang, Tim Brödermann, Hamed Haghighi, Haonan Zhao, Christos Sakaridis, Kurt Debattista, Valentina Donzella,
- Abstract要約: AURORA-KITTIは,大規模マルチモーダル・マルチウェザーベンチマークであり,野生における堅牢な深度補完を実現する。
さらに、気象騒音を抑えつつ、劣化したスパース入力から高密度深度マップを共同で再構築する統合作業として、深度完了・脱雑音(DCD)を定式化する。
- 参考スコア(独自算出の注目度): 25.731601093097353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Robust depth completion is fundamental to real-world 3D scene understanding, yet existing RGB-LiDAR fusion methods degrade significantly under adverse weather, where both camera images and LiDAR measurements suffer from weather-induced corruption. In this paper, we introduce AURORA-KITTI, the first large-scale multi-modal, multi-weather benchmark for robust depth completion in the wild. We further formulate Depth Completion and Denoising (DCD) as a unified task that jointly reconstructs a dense depth map from corrupted sparse inputs while suppressing weather-induced noise. AURORA-KITTI contains over \textit{82K} weather-consistent RGBL pairs with metric depth ground truth, spanning diverse weather types, three severity levels, day and night scenes, paired clean references, lens occlusion conditions, and textual descriptions. Moreover, we introduce DDCD, an efficient distillation-based baseline that leverages depth foundation models to inject clean structural priors into in-the-wild DCD training. DDCD achieves state-of-the-art performance on AURORA-KITTI and the real-world DENSE dataset while maintaining efficiency. Notably, our results further show that weather-aware, physically consistent data contributes more to robustness than architectural modifications alone. Data and code will be released upon publication.
- Abstract(参考訳): しかし、既存のRGB-LiDAR融合法は悪天候下で著しく劣化し、カメラ画像とLiDAR測定の両方が天候による腐敗に悩まされる。
本稿では,大規模マルチモーダルマルチウェザーベンチマークであるAURORA-KITTIを紹介する。
さらに、気象騒音を抑えつつ、劣化したスパース入力から高密度深度マップを共同で再構築する統合作業として、深度完了・脱雑音(DCD)を定式化する。
AURORA-KITTIには、様々な気象タイプ、3つの重度レベル、昼夜のシーン、ペアのクリーンな参照、レンズ閉塞条件、テキスト記述を含む、メートル法的な深度基底真理を持つ、テクティット{82K} の気象に一貫性のあるRGBL対が含まれている。
さらに, 深度基礎モデルを利用した蒸留ベースラインであるDDCDを導入し, 地中DCDトレーニングにクリーンな構造前駆体を注入する。
DDCDは、効率を維持しながら、AURORA-KITTIと現実世界のDENSEデータセット上で最先端のパフォーマンスを達成する。
特に、我々の結果は、気象に敏感で物理的に整合性のあるデータが、アーキテクチャの変更単独よりもロバスト性に寄与していることを示している。
データとコードは公開時に公開される。
関連論文リスト
- All-day Depth Completion via Thermal-LiDAR Fusion [10.853764732047278]
種々の照明条件における熱-LiDAR深度補完の実現可能性と堅牢性について検討した。
深度境界の明瞭度を高めるために,Contrastive Learning と Pseudo-Supervision (COPS) を利用するフレームワークを提案する。
また,この課題の理解と今後の研究を促進するために,熱-LiDAR深度完了における重要な課題を詳細に分析する。
論文 参考訳(メタデータ) (2025-04-03T07:45:03Z) - DepthLab: From Partial to Complete [80.58276388743306]
不足する値は、幅広いアプリケーションにわたる深度データにとって共通の課題である。
この作業は、イメージ拡散プリエントを利用した基礎深度塗装モデルであるDepthLabと、このギャップを埋めるものだ。
提案手法は,3Dシーンのインペイント,テキストから3Dシーン生成,DUST3Rによるスパースビュー再構成,LiDAR深度補完など,様々なダウンストリームタスクにおいて有用であることを示す。
論文 参考訳(メタデータ) (2024-12-24T04:16:38Z) - HazyDet: Open-Source Benchmark for Drone-View Object Detection with Depth-Cues in Hazy Scenes [54.24350833692194]
HazyDetは、ヘイジーな環境でドローンビューオブジェクトを検出するために特別に設計された、最初の大規模ベンチマークである。
本稿では,迷路による視覚劣化に対処するため,Depth-Conditioned Detector (DeCoDet)を提案する。
HazyDetは、検出アルゴリズムを前進させるための挑戦的で現実的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Monocular Depth Estimation using Diffusion Models [39.27361388836347]
トレーニングデータにおけるノイズや不完全な深度マップに起因する問題に対処するイノベーションを導入する。
教師付き訓練におけるデータの可用性の限界に対処するために,自己教師付き画像-画像間翻訳タスクの事前学習を利用する。
我々のDepthGenモデルは、屋内のNYUデータセット上で、および屋外のKITTIデータセット上でのSOTA結果に近いSOTA性能を達成する。
論文 参考訳(メタデータ) (2023-02-28T18:08:21Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Consistent Depth Prediction under Various Illuminations using Dilated
Cross Attention [1.332560004325655]
我々は,インターネット3D屋内シーンを用いて照明を手動で調整し,写真リアルなRGB写真とその対応する深度とBRDFマップを作成することを提案する。
異なる照明条件下での深度予測の整合性を維持するため,これらの拡張された特徴に横断的な注意を払っている。
提案手法は,Variデータセットの最先端手法との比較により評価され,実験で有意な改善が見られた。
論文 参考訳(メタデータ) (2021-12-15T10:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。