論文の概要: Low-Light Image Enhancement using Event-Based Illumination Estimation
- arxiv url: http://arxiv.org/abs/2504.09379v1
- Date: Sun, 13 Apr 2025 00:01:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-23 07:45:41.568253
- Title: Low-Light Image Enhancement using Event-Based Illumination Estimation
- Title(参考訳): イベントベース照明推定による低照度画像強調
- Authors: Lei Sun, Yuhan Bao, Jiajun Zhai, Jingyun Liang, Yulun Zhang, Kaiwei Wang, Danda Pani Paudel, Luc Van Gool,
- Abstract要約: 低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
- 参考スコア(独自算出の注目度): 83.81648559951684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) aims to improve the visibility of images captured in poorly lit environments. Prevalent event-based solutions primarily utilize events triggered by motion, i.e., ''motion events'' to strengthen only the edge texture, while leaving the high dynamic range and excellent low-light responsiveness of event cameras largely unexplored. This paper instead opens a new avenue from the perspective of estimating the illumination using ''temporal-mapping'' events, i.e., by converting the timestamps of events triggered by a transmittance modulation into brightness values. The resulting fine-grained illumination cues facilitate a more effective decomposition and enhancement of the reflectance component in low-light images through the proposed Illumination-aided Reflectance Enhancement module. Furthermore, the degradation model of temporal-mapping events under low-light condition is investigated for realistic training data synthesizing. To address the lack of datasets under this regime, we construct a beam-splitter setup and collect EvLowLight dataset that includes images, temporal-mapping events, and motion events. Extensive experiments across 5 synthetic datasets and our real-world EvLowLight dataset substantiate that the devised pipeline, dubbed RetinEV, excels in producing well-illuminated, high dynamic range images, outperforming previous state-of-the-art event-based methods by up to 6.62 dB, while maintaining an efficient inference speed of 35.6 frame-per-second on a 640X480 image.
- Abstract(参考訳): 低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
主流のイベントベースソリューションは、主に動きによって引き起こされるイベント、すなわち「動きのイベント」を利用してエッジテクスチャのみを強化する一方で、高いダイナミックレンジと、ほとんど探索されていないイベントカメラの低照度応答性を残している。
そこで本論文では,透過率変調によって引き起こされる事象のタイムスタンプを輝度値に変換することにより,「時間的マッピング」イベントを用いて照明を推定する手法を提案する。
その結果,照明支援モジュールによる低照度画像の反射率成分のより効率的な分解と向上が達成された。
さらに, 現実的なトレーニングデータ合成のために, 低照度条件下での時間的マッピング現象の劣化モデルについて検討した。
この体制下でのデータセット不足に対処するため、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集します。
5つの合成データセットと実世界のEvLowLightデータセットにわたる大規模な実験により、考案されたパイプラインであるRetinEVは、よく照らされた高ダイナミックレンジのイメージを生成し、過去の最先端のイベントベースメソッドを最大6.62dBで上回り、効率的な推論速度は640X480画像上で35.6フレーム/秒に維持する、という結論に達した。
関連論文リスト
- SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields [12.428456822446947]
イベントカメラは低レイテンシ、低消費電力、低帯域幅、高ダイナミックレンジなどの利点を提供する。
イベントデータから幾何的に一貫性があり、測光的に正確な3D表現を再構築することは、基本的に困難である。
イベントストリームのみからの静的なシーンの3次元一貫性, 密度放射, フォトリアリスティックなNeRF再構成を可能にする, 新規な自己教師型フレームワークSaENeRFを提案する。
論文 参考訳(メタデータ) (2025-04-23T03:33:20Z) - EBAD-Gaussian: Event-driven Bundle Adjusted Deblur Gaussian Splatting [21.46091843175779]
イベント駆動バンドル調整デブルガウススメッティング(EBAD-Gaussian)
EBAD-Gaussianは、イベントストリームとひどくぼやけた画像から、鋭い3Dガウシアンを再構築する。
合成および実世界のデータセットの実験により、EBAD-Gaussianは高品質な3Dシーンを再構築できることが示された。
論文 参考訳(メタデータ) (2025-04-14T09:17:00Z) - SEE: See Everything Every Time -- Adaptive Brightness Adjustment for Broad Light Range Images via Events [53.79905461386883]
ダイナミックレンジが120億ドルを超えるイベントカメラは、従来の組込みカメラをはるかに上回っている。
本研究では,広い照明条件下で撮影した画像の明るさを拡張・適応的に調整するために,イベントをどのように利用するかという,新しい研究課題を提案する。
我々のフレームワークは、センサパターンを通して色を捉え、イベントを輝度辞書としてモデル化するためにクロスアテンションを使用し、画像のダイナミックレンジを調整し、広い光域表現を形成する。
論文 参考訳(メタデータ) (2025-02-28T14:55:37Z) - Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
E-3DGSは、イベントベースの3D再構築のための新しいベンチマークを、困難な状況下で堅牢なパフォーマンスで設定する。
EME-3Dは、露光イベント、モーションイベント、カメラキャリブレーションパラメータ、スパースポイントクラウドを備えた実世界の3Dデータセットである。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - Deblurring Neural Radiance Fields with Event-driven Bundle Adjustment [23.15130387716121]
本稿では,学習可能なポーズとNeRFパラメータを協調的に最適化するために,Bundle Adjustment for Deblurring Neural Radiance Fields (EBAD-NeRF)を提案する。
EBAD-NeRFは露光時間中に正確なカメラ軌跡を得ることができ、従来よりもシャープな3D表現を学習することができる。
論文 参考訳(メタデータ) (2024-06-20T14:33:51Z) - Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。