論文の概要: Learning to Remove Lens Flare in Event Camera
- arxiv url: http://arxiv.org/abs/2512.09016v1
- Date: Tue, 09 Dec 2025 18:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.272449
- Title: Learning to Remove Lens Flare in Event Camera
- Title(参考訳): イベントカメラでレンズフレアを除去する学習
- Authors: Haiqian Han, Lingdong Kong, Jianing Li, Ao Liang, Chengtao Zhu, Jiacheng Lyu, Lai Xing Ng, Xiangyang Ji, Wei Tsang Ooi, Benoit R. Cottereau,
- Abstract要約: イベントカメラデータからレンズフレアを除去する最初のフレームワークであるE-DeflareDeflareを提案する。
まず、非線形抑制機構の物理基底フォワードモデルを導出した理論基盤を確立する。
このベンチマークを利用して、最先端の復元性能を実現するE-DeflareNetを設計する。
- 参考スコア(独自算出の注目度): 56.9171469873838
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Event cameras have the potential to revolutionize vision systems with their high temporal resolution and dynamic range, yet they remain susceptible to lens flare, a fundamental optical artifact that causes severe degradation. In event streams, this optical artifact forms a complex, spatio-temporal distortion that has been largely overlooked. We present E-Deflare, the first systematic framework for removing lens flare from event camera data. We first establish the theoretical foundation by deriving a physics-grounded forward model of the non-linear suppression mechanism. This insight enables the creation of the E-Deflare Benchmark, a comprehensive resource featuring a large-scale simulated training set, E-Flare-2.7K, and the first-ever paired real-world test set, E-Flare-R, captured by our novel optical system. Empowered by this benchmark, we design E-DeflareNet, which achieves state-of-the-art restoration performance. Extensive experiments validate our approach and demonstrate clear benefits for downstream tasks. Code and datasets are publicly available.
- Abstract(参考訳): イベントカメラは、高時間分解能とダイナミックレンジで視覚システムに革命をもたらす可能性があるが、レンズフレアは深刻な劣化を引き起こす基本的な光学的アーティファクトである。
イベントストリームでは、この光学的アーティファクトは複雑な時空間歪みを形成し、ほとんど見落とされた。
E-Deflareは、イベントカメラデータからレンズフレアを除去するための最初の体系的なフレームワークである。
まず、非線形抑制機構の物理基底フォワードモデルを導出した理論基盤を確立する。
この知見は、大規模なシミュレーショントレーニングセットであるE-Flare-2.7Kと、我々の新しい光学システムによってキャプチャされた最初のペア実世界テストセットであるE-Flare-Rを包括的に扱うE-Deflare Benchmarkの作成を可能にする。
このベンチマークを利用して、最先端の復元性能を実現するE-DeflareNetを設計する。
大規模な実験により、我々のアプローチが検証され、下流タスクに明確なメリットが示される。
コードとデータセットが公開されている。
関連論文リスト
- OmniLens++: Blind Lens Aberration Correction via Large LensLib Pre-Training and Latent PSF Representation [72.72583225885636]
この研究は、既存のパイプラインの一般化能力を妨げる2つの課題を解決するOmniLens++フレームワークを提案する。
実世界のレンズと合成レンズリブの様々な収差実験により、OmniLens++はブラインド収差補正において最先端の一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2025-11-21T10:41:54Z) - Bidirectional Image-Event Guided Fusion Framework for Low-Light Image Enhancement [24.5584423318892]
極端に低照度な条件下では、フレームベースのカメラは、ダイナミックレンジの制限により、細部が著しく失われる。
近年の研究では、イベント誘導型低照度画像強調のためのイベントカメラが導入されている。
低光画像強調のための双方向画像イベント誘導融合フレームワークBiLIEを提案する。
論文 参考訳(メタデータ) (2025-06-06T14:28:17Z) - LensNet: An End-to-End Learning Framework for Empirical Point Spread Function Modeling and Lensless Imaging Reconstruction [32.85180149439811]
レンズレスイメージングは、従来のレンズベースのシステムに代わる有望な選択肢である。
従来のレンズレス技術は、しばしば明示的な校正と広範な前処理を必要とする。
本研究では,空間領域と周波数領域の表現を統合したエンドツーエンドのディープラーニングフレームワークであるLensNetを提案する。
論文 参考訳(メタデータ) (2025-05-03T09:11:52Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - ADFactory: An Effective Framework for Generalizing Optical Flow with
Nerf [0.4532517021515834]
自動データファクトリ(ADF)による新しい光フロートレーニングフレームワークについて紹介する。
ADFは、ターゲットデータ領域上の光フローネットワークを効果的にトレーニングするために、入力としてRGBイメージのみを必要とする。
我々は、高度なNerf技術を用いて、単眼カメラで収集した写真群からシーンを再構築する。
生成したラベルを光フローマッチングの精度、放射界の信頼性、深さの整合性などの複数の側面からスクリーニングする。
論文 参考訳(メタデータ) (2023-11-07T05:21:45Z) - Physics-Driven Turbulence Image Restoration with Stochastic Refinement [80.79900297089176]
大気乱流による画像歪みは、長距離光学画像システムにおいて重要な問題である。
ディープラーニングモデルが現実世界の乱流条件に適応するために、高速で物理学的なシミュレーションツールが導入された。
本稿では,物理統合復元ネットワーク(PiRN)を提案する。
論文 参考訳(メタデータ) (2023-07-20T05:49:21Z) - Optical Aberration Correction in Postprocessing using Imaging Simulation [17.331939025195478]
モバイル写真の人気は増え続けている。
最近のカメラは、これらの修正作業の一部を光学設計から後処理システムに移行した。
光学収差による劣化を回復するための実用的手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:20:39Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。