論文の概要: LiDAS: Lighting-driven Dynamic Active Sensing for Nighttime Perception
- arxiv url: http://arxiv.org/abs/2512.08912v1
- Date: Tue, 09 Dec 2025 18:47:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.101068
- Title: LiDAS: Lighting-driven Dynamic Active Sensing for Nighttime Perception
- Title(参考訳): LiDAS:夜間知覚のための照明駆動動的アクティブセンシング
- Authors: Simon de Moreau, Andrei Bursuc, Hafid El-Idrissi, Fabien Moutarde,
- Abstract要約: LiDASは、市販の視覚知覚モデルと高解像度ヘッドライトを組み合わせたクローズドループアクティブ照明システムである。
LiDASは、適応照明制御により、昼間訓練されたモデルのゼロショット夜間一般化を可能にする。
- 参考スコア(独自算出の注目度): 12.076207766855203
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nighttime environments pose significant challenges for camera-based perception, as existing methods passively rely on the scene lighting. We introduce Lighting-driven Dynamic Active Sensing (LiDAS), a closed-loop active illumination system that combines off-the-shelf visual perception models with high-definition headlights. Rather than uniformly brightening the scene, LiDAS dynamically predicts an optimal illumination field that maximizes downstream perception performance, i.e., decreasing light on empty areas to reallocate it on object regions. LiDAS enables zero-shot nighttime generalization of daytime-trained models through adaptive illumination control. Trained on synthetic data and deployed zero-shot in real-world closed-loop driving scenarios, LiDAS enables +18.7% mAP50 and +5.0% mIoU over standard low-beam at equal power. It maintains performances while reducing energy use by 40%. LiDAS complements domain-generalization methods, further strengthening robustness without retraining. By turning readily available headlights into active vision actuators, LiDAS offers a cost-effective solution to robust nighttime perception.
- Abstract(参考訳): 夜間環境は、既存の手法がシーンライティングにパッシブに依存しているため、カメラベースの知覚に重大な課題をもたらす。
我々は、市販の視覚知覚モデルと高精細ヘッドライトを組み合わせた閉ループアクティブ照明システムLiDASを紹介する。
シーンを均一に明るくするのではなく、LiDASは下流の知覚性能を最大化する最適な照明場を動的に予測する。
LiDASは、適応照明制御により、昼間訓練されたモデルのゼロショット夜間一般化を可能にする。
合成データに基づいて訓練され、実世界のクローズドループ運転シナリオでゼロショットが展開され、LiDASは+18.7% mAP50と+5.0% mIoUを同じパワーで標準のロービーム上で実現した。
性能を維持し、エネルギー使用量を40%削減する。
LiDASはドメイン一般化法を補完し、再訓練せずに堅牢性をさらに強化する。
利用可能なヘッドライトをアクティブな視覚アクチュエータに変えることで、LiDASは夜間の知覚を堅牢にするためのコスト効率の高いソリューションを提供する。
関連論文リスト
- GLOW: Global Illumination-Aware Inverse Rendering of Indoor Scenes Captured with Dynamic Co-Located Light & Camera [18.90141473604964]
室内シーンの逆レンダリングは、反射率と照明のあいまいさのため、依然として困難である。
GLOWは、これらの課題に対処するために設計された、Global Illumination-aware Inverse Renderingフレームワークである。
論文 参考訳(メタデータ) (2025-11-28T03:24:12Z) - The Devil is in the Darkness: Diffusion-Based Nighttime Dehazing Anchored in Brightness Perception [58.895000127068194]
本稿では,Diffusion-based Nighttime Dehazingフレームワークについて紹介する。
輝度知覚ネットワークによって導かれる事前学習拡散モデルを統合する復元モデルを提案する。
実験では、データセットの有用性と、ジョイントヘイズ除去と輝度マッピングにおけるモデルの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-06-03T03:21:13Z) - Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - LED: Light Enhanced Depth Estimation at Night [10.941842055797125]
低照度環境における深度推定を大幅に改善する新しいコスト効率のアプローチであるLED(Light Enhanced Depth)を導入する。
LEDは、現代の車両で利用できる高解像度ヘッドライトによって投影されるパターンを利用する。
49,990の注釈付き画像からなるNighttime Synthetic Driveデータセットをリリースする。
論文 参考訳(メタデータ) (2024-09-12T13:23:24Z) - Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving [45.97279394690308]
LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
論文 参考訳(メタデータ) (2024-04-07T04:10:06Z) - Neural Light Field Estimation for Street Scenes with Differentiable
Virtual Object Insertion [129.52943959497665]
既存の屋外照明推定の作業は通常、シーン照明を環境マップに単純化する。
単一画像から5次元HDR光場を推定するニューラルネットワークを提案する。
自律運転アプリケーションにおけるARオブジェクト挿入の利点を示す。
論文 参考訳(メタデータ) (2022-08-19T17:59:16Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Sparse Needlets for Lighting Estimation with Spherical Transport Loss [89.52531416604774]
NeedleLightは、新しい照明推定モデルであり、必要に応じて照明を表現し、周波数領域と空間領域を共同で照明推定することができる。
大規模な実験により、NeedleLightは、最先端の手法と比較して、複数の評価指標で常に優れた照明推定を実現していることがわかった。
論文 参考訳(メタデータ) (2021-06-24T15:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。