論文の概要: DepthDark: Robust Monocular Depth Estimation for Low-Light Environments
- arxiv url: http://arxiv.org/abs/2507.18243v1
- Date: Thu, 24 Jul 2025 09:32:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.336077
- Title: DepthDark: Robust Monocular Depth Estimation for Low-Light Environments
- Title(参考訳): DepthDark:低光環境におけるロバストな単分子深度推定
- Authors: Longjian Zeng, Zunjie Zhu, Rongfeng Lu, Ming Lu, Bolun Zheng, Chenggang Yan, Anke Xue,
- Abstract要約: 低照度単分子深度推定のための頑健な基礎モデルDepthDarkを提案する。
まず、夜間条件下での撮像過程を正確にシミュレートするフレア・シミュレート・モジュールとノイズ・シミュレート・モジュールを導入する。
次に、照明誘導とマルチスケール特徴融合を利用して、低照度環境におけるモデルの能力を高める効果的な低照度PEFT戦略を提案する。
- 参考スコア(独自算出の注目度): 28.45734920093837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, foundation models for monocular depth estimation have received increasing attention. Current methods mainly address typical daylight conditions, but their effectiveness notably decreases in low-light environments. There is a lack of robust foundational models for monocular depth estimation specifically designed for low-light scenarios. This largely stems from the absence of large-scale, high-quality paired depth datasets for low-light conditions and the effective parameter-efficient fine-tuning (PEFT) strategy. To address these challenges, we propose DepthDark, a robust foundation model for low-light monocular depth estimation. We first introduce a flare-simulation module and a noise-simulation module to accurately simulate the imaging process under nighttime conditions, producing high-quality paired depth datasets for low-light conditions. Additionally, we present an effective low-light PEFT strategy that utilizes illumination guidance and multiscale feature fusion to enhance the model's capability in low-light environments. Our method achieves state-of-the-art depth estimation performance on the challenging nuScenes-Night and RobotCar-Night datasets, validating its effectiveness using limited training data and computing resources.
- Abstract(参考訳): 近年,単分子深度推定の基礎モデルが注目されている。
現在の方法は主に日照の典型的な条件に対処するが、その効果は低照度環境において顕著に減少する。
低照度シナリオ用に特別に設計された単眼深度推定のための堅牢な基礎モデルがない。
これは主に、低照度条件のための大規模で高品質なペア深度データセットがないことと、効果的なパラメータ効率の微調整(PEFT)戦略が原因である。
これらの課題に対処するために、低照度単分子深度推定のための頑健な基礎モデルであるDepthDarkを提案する。
まず、夜間条件下での撮像過程を正確にシミュレートするためのフレアシミュレーションモジュールとノイズシミュレーションモジュールを導入し、低照度条件下での高品質なペア深度データセットを作成する。
さらに、照明誘導とマルチスケール機能融合を利用して、低照度環境におけるモデルの能力を高める効果的な低照度PEFT戦略を提案する。
本手法は,難解なnuScenes-Night と RobotCar-Night のデータセット上での最先端深度推定性能を実現し,限られたトレーニングデータと計算資源を用いてその有効性を検証した。
関連論文リスト
- Dense Geometry Supervision for Underwater Depth Estimation [0.0]
本稿では,水中環境における単分子深度推定法における既存の課題に対処する新しい手法を提案する。
多視点深度推定を用いて,水中シナリオに適した経済的に効率的なデータセットを構築した。
本研究では,テクスチャキューからの深度情報を効果的に活用し,統合することを目的としたテクスチャ深度融合モジュールを提案する。
論文 参考訳(メタデータ) (2025-04-25T10:27:25Z) - All-day Depth Completion via Thermal-LiDAR Fusion [10.853764732047278]
種々の照明条件における熱-LiDAR深度補完の実現可能性と堅牢性について検討した。
深度境界の明瞭度を高めるために,Contrastive Learning と Pseudo-Supervision (COPS) を利用するフレームワークを提案する。
また,この課題の理解と今後の研究を促進するために,熱-LiDAR深度完了における重要な課題を詳細に分析する。
論文 参考訳(メタデータ) (2025-04-03T07:45:03Z) - A Simple yet Effective Test-Time Adaptation for Zero-Shot Monocular Metric Depth Estimation [46.037640130193566]
センサや低分解能LiDARなどの技術によって提供される3Dポイントや、IMUが提示したポーズによる構造移動を用いて、奥行きの予測を再現する新しい手法を提案する。
実験では, ゼロショット単角距離推定法, 微調整法と比較しての競合性, 深度補修法よりも頑健さが向上した。
論文 参考訳(メタデータ) (2024-12-18T17:50:15Z) - Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - LED: Light Enhanced Depth Estimation at Night [10.941842055797125]
低照度環境における深度推定を大幅に改善する新しいコスト効率のアプローチであるLED(Light Enhanced Depth)を導入する。
LEDは、現代の車両で利用できる高解像度ヘッドライトによって投影されるパターンを利用する。
49,990の注釈付き画像からなるNighttime Synthetic Driveデータセットをリリースする。
論文 参考訳(メタデータ) (2024-09-12T13:23:24Z) - Dusk Till Dawn: Self-supervised Nighttime Stereo Depth Estimation using Visual Foundation Models [16.792458193160407]
自己教師付き深さ推定アルゴリズムはフレームウォーピング関係に大きく依存する。
夜間に焦点をあてた自己教師型ステレオ深度推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:07:23Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。