論文の概要: From Events to Clarity: The Event-Guided Diffusion Framework for Dehazing
- arxiv url: http://arxiv.org/abs/2511.11944v1
- Date: Fri, 14 Nov 2025 23:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.412801
- Title: From Events to Clarity: The Event-Guided Diffusion Framework for Dehazing
- Title(参考訳): イベントから明確なものへ:デハジングのためのイベントガイド付き拡散フレームワーク
- Authors: Ling Wang, Yunfan Lu, Wenzong Ma, Huizai Yao, Pengteng Li, Hui Xiong,
- Abstract要約: イベントカメラはより高いHDR(120dBvs.60dB$)とマイクロ秒のレイテンシを提供する。
本稿では, イベント誘導拡散モデルを提案する。
2つのベンチマークとデータセットの実験により、最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 22.734114189687435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clear imaging under hazy conditions is a critical task. Prior-based and neural methods have improved results. However, they operate on RGB frames, which suffer from limited dynamic range. Therefore, dehazing remains ill-posed and can erase structure and illumination details. To address this, we use event cameras for dehazing for the \textbf{first time}. Event cameras offer much higher HDR ($120 dBvs.60 dB$) and microsecond latency, therefore they suit hazy scenes. In practice, transferring HDR cues from events to frames is hard because real paired data are scarce. To tackle this, we propose an event-guided diffusion model that utilizes the strong generative priors of diffusion models to reconstruct clear images from hazy inputs by effectively transferring HDR information from events. Specifically, we design an event-guided module that maps sparse HDR event features, \textit{e.g.,} edges, corners, into the diffusion latent space. This clear conditioning provides precise structural guidance during generation, improves visual realism, and reduces semantic drift. For real-world evaluation, we collect a drone dataset in heavy haze (AQI = 341) with synchronized RGB and event sensors. Experiments on two benchmarks and our dataset achieve state-of-the-art results.
- Abstract(参考訳): ぼんやりとした条件下でのクリアイメージングは重要な課題である。
事前ベースとニューラルメソッドでは、結果が改善された。
しかし、RGBフレームで動作し、ダイナミックレンジが限られている。
そのため、脱臭は未処理のままであり、構造や照明の細部を消し去ることができる。
これを解決するために、イベントカメラを使用して、 \textbf{first time} のデハージングを行います。
イベントカメラはより高いHDR(120dBvs.60dB$)とマイクロ秒のレイテンシを提供する。
実際には、実際のペアデータが少ないため、HDRキューをイベントからフレームに転送することは難しい。
そこで本研究では,イベントからHDR情報を効果的に転送することで,高次拡散モデルから鮮明な画像を再構成するイベント誘導拡散モデルを提案する。
具体的には、スパースなHDRイベント特徴, \textit{e g ,} エッジ、コーナーを拡散潜在空間にマッピングするイベント誘導モジュールを設計する。
この明確な条件付けは、生成中の正確な構造的ガイダンスを提供し、視覚的リアリズムを改善し、意味的なドリフトを減らす。
実世界の評価には、RGBとイベントセンサを同期させたヘビーヘイズ(AQI = 341)でドローンデータセットを収集する。
2つのベンチマークとデータセットの実験により、最先端の結果が得られた。
関連論文リスト
- Dynamic EventNeRF: Reconstructing General Dynamic Scenes from Multi-view RGB and Event Streams [69.65147723239153]
動的シーンのボリューム再構成はコンピュータビジョンにおいて重要な問題である。
照明が悪く、動きが速い場合には特に困難である。
本稿では,スパースなマルチビューイベントストリームとスパースなRGBフレームからシーンを時間的に再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T18:56:18Z) - Mitigating Motion Blur in Neural Radiance Fields with Events and Frames [21.052912896866953]
本研究では,フレームやイベントを融合させることにより,カメラ動作下でのNeRF再構成を改善する新しい手法を提案する。
我々は、イベント二重積分を追加のモデルベースとして利用して、ぼやけた生成プロセスを明示的にモデル化する。
合成および実データから,提案手法は,フレームのみを使用する既存の劣化型NeRFよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-28T19:06:37Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - HDR Reconstruction from Bracketed Exposures and Events [12.565039752529797]
高品質なHDR画像の再構成は、現代の計算写真の中心にある。
特徴領域におけるブラケット画像とイベントを融合したマルチモーダルなエンドツーエンド学習型HDRイメージングシステムを提案する。
我々のフレームワークは、スライディングウィンドウを使用して入力イベントストリームをサブサンプリングすることで、イベントの時間分解能を高める。
論文 参考訳(メタデータ) (2022-03-28T15:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。