論文の概要: Noise2Image: Noise-Enabled Static Scene Recovery for Event Cameras
- arxiv url: http://arxiv.org/abs/2404.01298v1
- Date: Mon, 1 Apr 2024 17:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 21:16:45.274259
- Title: Noise2Image: Noise-Enabled Static Scene Recovery for Event Cameras
- Title(参考訳): ノイズ2画像:イベントカメラのノイズキャンセリング
- Authors: Ruiming Cao, Dekel Galor, Amit Kohli, Jacob L Yates, Laura Waller,
- Abstract要約: イベントカメラは「イベント」の流れとして時間とともに強度の変化を捉えます
本研究では,照明に依存したノイズ特性を利用してシーンの静的な部分を復元する手法であるNoss2Imageを提案する。
以上の結果から,ノイズ2画像はノイズイベントのみから強度像を頑健に復元できることが示唆された。
- 参考スコア(独自算出の注目度): 2.630755581216441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras capture changes of intensity over time as a stream of 'events' and generally cannot measure intensity itself; hence, they are only used for imaging dynamic scenes. However, fluctuations due to random photon arrival inevitably trigger noise events, even for static scenes. While previous efforts have been focused on filtering out these undesirable noise events to improve signal quality, we find that, in the photon-noise regime, these noise events are correlated with the static scene intensity. We analyze the noise event generation and model its relationship to illuminance. Based on this understanding, we propose a method, called Noise2Image, to leverage the illuminance-dependent noise characteristics to recover the static parts of a scene, which are otherwise invisible to event cameras. We experimentally collect a dataset of noise events on static scenes to train and validate Noise2Image. Our results show that Noise2Image can robustly recover intensity images solely from noise events, providing a novel approach for capturing static scenes in event cameras, without additional hardware.
- Abstract(参考訳): イベントカメラは「イベント」の流れとして時間とともに強度の変化を捉え、一般的に強度を測定できないため、ダイナミックなシーンの撮影にのみ使用される。
しかし、ランダムな光子到着によるゆらぎは、静的なシーンであっても必然的にノイズイベントを引き起こす。
従来,これらの望ましくないノイズイベントをフィルタリングして信号品質を向上させる研究が続けられてきたが,光子ノイズ系では,これらのノイズイベントが静的なシーン強度と相関していることが判明した。
ノイズ事象の発生を分析し,その輝度との関係をモデル化する。
そこで本研究では,ノイズ2画像(Noss2Image)と呼ばれる手法を提案し,照度に依存したノイズ特性を利用してシーンの静的な部分を復元する手法を提案する。
本研究では,静的シーンにおけるノイズイベントのデータセットを実験的に収集し,ノイズ2画像のトレーニングと検証を行う。
以上の結果から,ノイズイベントのみから高精細画像の高精細化を図り,新たなハードウェアを使わずにイベントカメラの静的シーンを撮影する手法が提案されている。
関連論文リスト
- A Label-Free and Non-Monotonic Metric for Evaluating Denoising in Event Cameras [17.559229117246666]
イベントカメラは、スパースで非同期なイベントストリームを出力するため、その高い効率で有名である。
denoisingはイベントカメラにとって必須のタスクだが、denoisingパフォーマンスを評価することは難しい。
連続コントラスト曲線(AOCC)の面積であるラベルフリーで非単調な評価指標を提案する。
論文 参考訳(メタデータ) (2024-06-13T08:12:48Z) - LED: A Large-scale Real-world Paired Dataset for Event Camera Denoising [19.51468512911655]
イベントカメラは、ノイズ干渉を受けやすい場合に動的シーン情報をキャプチャする点で大きな利点がある。
我々は,高解像度(1200*680)イベントストリームで18K秒の3Kシーケンスを含む,新しいペア化された実世界のイベントデノゲーションデータセット(LED)を構築した。
そこで本研究では,GTを生音から分離して生成する手法として,均質な二重事象を用いた新しい効果的なデノナイジングフレームワーク(DED)を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:02:35Z) - Blind2Sound: Self-Supervised Image Denoising without Residual Noise [5.192255321684027]
Poisson-Gaussianノイズに対する自己監督型視覚障害は依然として困難な課題である。
そこで我々はBlind2Soundを提案する。Blind2Soundは難聴画像の残音を克服するシンプルで効果的な手法である。
論文 参考訳(メタデータ) (2023-03-09T11:21:59Z) - Noise2NoiseFlow: Realistic Camera Noise Modeling without Clean Images [35.29066692454865]
本稿では,ノイズモデルとデノイザを同時にトレーニングするためのフレームワークを提案する。
ノイズ/クリーンなペア画像データではなく、ノイズの多いイメージのペアに依存します。
トレーニングされたデノイザーは、教師付きおよび弱教師付きベースラインデノイジングアプローチの両方において、大幅に改善される。
論文 参考訳(メタデータ) (2022-06-02T15:31:40Z) - Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware
Adversarial Training [50.018580462619425]
我々は,PNGAN(Pixel-level Noise-aware Generative Adrial Network)という新しいフレームワークを提案する。
PNGANは、トレーニング済みのリアルデノイザーを使用して、フェイク画像とリアルノイズ画像をほぼノイズのないソリューション空間にマッピングする。
より優れたノイズフィッティングを実現するため,ジェネレータとしてSimple Multi-versa-scale Network (SMNet) を提案する。
論文 参考訳(メタデータ) (2022-04-06T14:09:02Z) - C2N: Practical Generative Noise Modeling for Real-World Denoising [53.96391787869974]
両例を使わずに複雑な実世界の騒音を模倣するクリーン・ツー・ノイズ画像生成フレームワーク,すなわちC2Nを導入する。
我々は,C2Nの騒音発生器を実世界の騒音特性の成分に応じて構築し,広い範囲の騒音を正確に表現する。
論文 参考訳(メタデータ) (2022-02-19T05:53:46Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Physics-based Noise Modeling for Extreme Low-light Photography [63.65570751728917]
CMOS光センサの撮像パイプラインにおけるノイズ統計について検討する。
実雑音構造を正確に特徴付けることのできる包括的ノイズモデルを定式化する。
我々のノイズモデルは、学習に基づく低照度復調アルゴリズムのためのリアルなトレーニングデータを合成するのに利用できる。
論文 参考訳(メタデータ) (2021-08-04T16:36:29Z) - Adaptive noise imitation for image denoising [58.21456707617451]
本研究では,自然雑音画像からノイズデータを合成できる新しいテキストバッファ適応ノイズ模倣(ADANI)アルゴリズムを開発した。
現実的なノイズを生成するため、ノイズ発生装置はノイズ発生のガイドとなる雑音/クリーン画像を入力として利用する。
ADANIから出力されるノイズデータとそれに対応する基盤構造とを結合すると、デノイングCNNは、完全に教師された方法で訓練される。
論文 参考訳(メタデータ) (2020-11-30T02:49:36Z) - NoiseBreaker: Gradual Image Denoising Guided by Noise Analysis [5.645552640953684]
本稿では,画像中の支配雑音を反復的に検出し,調整したデノイザを用いて除去する段階的なデノイズ戦略を提案する。
本手法は, 遭遇した騒音の性質を把握し, 既存の騒音を新しいノイズ特性で拡張することを可能にする。
論文 参考訳(メタデータ) (2020-02-18T11:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。