論文の概要: LED: Light Enhanced Depth Estimation at Night
- arxiv url: http://arxiv.org/abs/2409.08031v2
- Date: Fri, 18 Oct 2024 12:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 21:31:36.165672
- Title: LED: Light Enhanced Depth Estimation at Night
- Title(参考訳): LED:夜間の光深度推定
- Authors: Simon de Moreau, Yasser Almehio, Andrei Bursuc, Hafid El-Idrissi, Bogdan Stanciulescu, Fabien Moutarde,
- Abstract要約: 低照度環境における深度推定を大幅に改善する新しいコスト効率のアプローチであるLED(Light Enhanced Depth)を導入する。
LEDは、現代の車両で利用できる高解像度ヘッドライトによって投影されるパターンを利用する。
49,990の注釈付き画像からなるNighttime Synthetic Driveデータセットをリリースする。
- 参考スコア(独自算出の注目度): 10.941842055797125
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nighttime camera-based depth estimation is a highly challenging task, especially for autonomous driving applications, where accurate depth perception is essential for ensuring safe navigation. We aim to improve the reliability of perception systems at night time, where models trained on daytime data often fail in the absence of precise but costly LiDAR sensors. In this work, we introduce Light Enhanced Depth (LED), a novel cost-effective approach that significantly improves depth estimation in low-light environments by harnessing a pattern projected by high definition headlights available in modern vehicles. LED leads to significant performance boosts across multiple depth-estimation architectures (encoder-decoder, Adabins, DepthFormer) both on synthetic and real datasets. Furthermore, increased performances beyond illuminated areas reveal a holistic enhancement in scene understanding. Finally, we release the Nighttime Synthetic Drive Dataset, a new synthetic and photo-realistic nighttime dataset, which comprises 49,990 comprehensively annotated images.
- Abstract(参考訳): 夜間カメラによる深度推定は、特に安全なナビゲーションを確保するために正確な深度認識が不可欠である自律運転アプリケーションにおいて、非常に困難な作業である。
夜間における知覚システムの信頼性向上を目指しており、日中のデータで訓練されたモデルは、正確なLiDARセンサーがなければ、しばしば失敗する。
本研究は,高精細ヘッドライトによって投影されるパターンを活用することで,低照度環境における奥行き推定を大幅に改善する,新しいコスト効率のアプローチであるLight Enhanced Depth(LED)を紹介する。
LEDは、複数の深度推定アーキテクチャ(エンコーダ-デコーダ、Adabins、DepthFormer)において、合成データセットと実際のデータセットの両方において、大幅なパフォーマンス向上をもたらします。
さらに,照明領域を越えた性能向上は,シーン理解の全体的向上を示す。
最後に、我々はNighttime Synthetic Drive Datasetをリリースした。Nighttime Synthetic Drive Datasetは、49,990の注釈付き画像からなる、新しい合成的で写真リアルなナイトタイムデータセットである。
関連論文リスト
- Depth on Demand: Streaming Dense Depth from a Low Frame Rate Active Sensor [31.118441783431177]
Depth on Demand (DoD) は、高フレームレートRGBセンサと、潜在的に低いフレームレートとスパース活性深度センサーを併用することにより、時間的および空間的深度を正確に密度化することができる。
提案手法は,深度センサのストリーミング要求を大幅に低減し,低消費電力化と高密度形状復元を可能にする。
室内および屋外のビデオデータセットにおけるDoDの有効性を実証し, 環境スキャンと自動車認識の両方のユースケースについて検討した。
論文 参考訳(メタデータ) (2024-09-12T17:59:46Z) - SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving [45.97279394690308]
LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
論文 参考訳(メタデータ) (2024-04-07T04:10:06Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Learnable Differencing Center for Nighttime Depth Perception [39.455428679154934]
我々は LDCNet というシンプルなフレームワークを提案する。
我々のキーとなる考え方は、夜間のカラー画像を改善するために、Recurrent Inter-Convolution Difference (RICD) と Illumination-Affinitive Inter-Convolution Difference (IAICD) を使用することである。
夜間深度推定タスクと夜間深度推定タスクの両方において,LDCNetの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-06-26T09:21:13Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Multi-Modal Depth Estimation Using Convolutional Neural Networks [0.8701566919381223]
本論文では, 厳しい気象条件下での遠距離センサデータと単一カメラ画像からの深度予測について考察する。
ディープラーニングアプローチを適用して深度を推定するカメラ、レーダー、ライダーなど、さまざまなセンサーモダリティの重要性を探ります。
論文 参考訳(メタデータ) (2020-12-17T15:31:49Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。