論文の概要: Seeing the Unseen: Zooming in the Dark with Event Cameras
- arxiv url: http://arxiv.org/abs/2601.02206v1
- Date: Mon, 05 Jan 2026 15:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.246069
- Title: Seeing the Unseen: Zooming in the Dark with Event Cameras
- Title(参考訳): 見えないものを見る:イベントカメラで暗闇の中でズームする
- Authors: Dachun Kai, Zeyu Xiao, Huyue Zhu, Jiaxiao Wang, Yueyi Zhang, Xiaoyan Sun,
- Abstract要約: 低照度ビデオ超解像(LVSR)は、低照度低解像度(LR)入力から高解像度映像を復元することを目的としている。
既存のLVSR法は、コントラストが限られ、高周波情報が不十分なため、細部を回復するのにしばしば苦労する。
我々はRetinexEVSRについて紹介する。RetinexEVSRは、高コントラストなイベント信号とRetinexにインスパイアされた事前情報を利用して、低照度シナリオ下での画質向上を実現する、最初のイベント駆動型LVSRフレームワークである。
- 参考スコア(独自算出の注目度): 36.50809482857401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses low-light video super-resolution (LVSR), aiming to restore high-resolution videos from low-light, low-resolution (LR) inputs. Existing LVSR methods often struggle to recover fine details due to limited contrast and insufficient high-frequency information. To overcome these challenges, we present RetinexEVSR, the first event-driven LVSR framework that leverages high-contrast event signals and Retinex-inspired priors to enhance video quality under low-light scenarios. Unlike previous approaches that directly fuse degraded signals, RetinexEVSR introduces a novel bidirectional cross-modal fusion strategy to extract and integrate meaningful cues from noisy event data and degraded RGB frames. Specifically, an illumination-guided event enhancement module is designed to progressively refine event features using illumination maps derived from the Retinex model, thereby suppressing low-light artifacts while preserving high-contrast details. Furthermore, we propose an event-guided reflectance enhancement module that utilizes the enhanced event features to dynamically recover reflectance details via a multi-scale fusion mechanism. Experimental results show that our RetinexEVSR achieves state-of-the-art performance on three datasets. Notably, on the SDSD benchmark, our method can get up to 2.95 dB gain while reducing runtime by 65% compared to prior event-based methods. Code: https://github.com/DachunKai/RetinexEVSR.
- Abstract(参考訳): 本稿では,低照度高解像度映像を低照度低解像度(LR)入力から復元することを目的とした低照度ビデオ超解像(LVSR)について述べる。
既存のLVSR法は、コントラストが限られ、高周波情報が不十分なため、細部を回復するのにしばしば苦労する。
これらの課題を克服するために、RetinexEVSRは、高コントラストイベント信号とRetinexにインスパイアされた先行技術を利用して、低照度シナリオ下でのビデオ品質を向上させる、最初のイベント駆動型LVSRフレームワークである。
劣化した信号を直接融合する従来のアプローチとは異なり、RetinexEVSRはノイズの多いイベントデータや劣化したRGBフレームから意味のある手がかりを抽出し統合するための、双方向の相互融合戦略を導入している。
具体的には、Retinexモデルから導かれた照明マップを用いて、事象の特徴を段階的に洗練し、高コントラストの詳細を保存しながら、低照度アーティファクトを抑えるように設計されている。
さらに,拡張イベント特徴を利用したイベント誘導型リフレクタンス拡張モジュールを提案し,マルチスケール融合機構を用いてリフレクタンスの詳細を動的に復元する。
実験結果から,RetinexEVSRは3つのデータセット上で最先端のパフォーマンスを実現することがわかった。
特にSDSDベンチマークでは,従来のイベントベース手法に比べて実行時間を65%削減しながら,最大2.95dBのゲインを得ることができる。
コード:https://github.com/DachunKai/RetinexEVSR。
関連論文リスト
- Bidirectional Image-Event Guided Fusion Framework for Low-Light Image Enhancement [24.5584423318892]
極端に低照度な条件下では、フレームベースのカメラは、ダイナミックレンジの制限により、細部が著しく失われる。
近年の研究では、イベント誘導型低照度画像強調のためのイベントカメラが導入されている。
低光画像強調のための双方向画像イベント誘導融合フレームワークBiLIEを提案する。
論文 参考訳(メタデータ) (2025-06-06T14:28:17Z) - Event-Enhanced Blurry Video Super-Resolution [52.894824081586776]
我々は,低解像度(LR)とぼやけた入力から高解像度(HR)ビデオを生成することを目的とした,ぼやけたビデオ超解像(BVSR)の課題に取り組む。
現在のBVSR法は、しばしば高解像度でシャープな詳細を復元するのに失敗し、顕著なアーティファクトとジッターを生み出した。
本稿では,BVSR にイベント信号を導入し,新しいイベント強化ネットワーク Ev-DeVSR を提案する。
論文 参考訳(メタデータ) (2025-04-17T15:55:41Z) - Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - Learning to Robustly Reconstruct Low-light Dynamic Scenes from Spike Streams [28.258022350623023]
ニューロモルフィックセンサーとして、スパイクカメラは連続したバイナリスパイクストリームを生成してピクセル当たりの光強度を捉えることができる。
本稿では,光ロバスト表現(LR-Rep)と融合モジュールを含む双方向のリカレントに基づく再構成フレームワークを提案する。
我々は,高速低照度シーンの再現ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-01-19T03:01:07Z) - Low-Light Video Enhancement with Synthetic Event Guidance [188.7256236851872]
我々は、複数のフレームから合成イベントを使用して、低照度ビデオの強化と復元を誘導する。
本手法は,合成と実の両方のLLVEデータセットにおいて,既存の低照度映像や単一画像強調手法より優れる。
論文 参考訳(メタデータ) (2022-08-23T14:58:29Z) - EventSR: From Asynchronous Events to Image Reconstruction, Restoration,
and Super-Resolution via End-to-End Adversarial Learning [75.17497166510083]
イベントカメラは強度の変化を感知し、従来のカメラよりも多くの利点がある。
イベントストリームからの強度画像の再構成手法が提案されている。
出力は依然として低解像度(LR)、ノイズ、非現実的である。
本研究では、イベントストリームからLR画像を再構成し、画像品質を高め、EventSRと呼ばれる拡張イメージをアップサンプリングする、新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2020-03-17T10:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。