論文の概要: A Label-Free and Non-Monotonic Metric for Evaluating Denoising in Event Cameras
- arxiv url: http://arxiv.org/abs/2406.08909v1
- Date: Thu, 13 Jun 2024 08:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 18:54:07.688157
- Title: A Label-Free and Non-Monotonic Metric for Evaluating Denoising in Event Cameras
- Title(参考訳): イベントカメラにおけるデノイング評価のためのラベルフリー・非モノトニックメトリック
- Authors: Chenyang Shi, Shasha Guo, Boyi Wei, Hanxiao Liu, Yibo Zhang, Ningfang Song, Jing Jin,
- Abstract要約: イベントカメラは、スパースで非同期なイベントストリームを出力するため、その高い効率で有名である。
denoisingはイベントカメラにとって必須のタスクだが、denoisingパフォーマンスを評価することは難しい。
連続コントラスト曲線(AOCC)の面積であるラベルフリーで非単調な評価指標を提案する。
- 参考スコア(独自算出の注目度): 17.559229117246666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are renowned for their high efficiency due to outputting a sparse, asynchronous stream of events. However, they are plagued by noisy events, especially in low light conditions. Denoising is an essential task for event cameras, but evaluating denoising performance is challenging. Label-dependent denoising metrics involve artificially adding noise to clean sequences, complicating evaluations. Moreover, the majority of these metrics are monotonic, which can inflate scores by removing substantial noise and valid events. To overcome these limitations, we propose the first label-free and non-monotonic evaluation metric, the area of the continuous contrast curve (AOCC), which utilizes the area enclosed by event frame contrast curves across different time intervals. This metric is inspired by how events capture the edge contours of scenes or objects with high temporal resolution. An effective denoising method removes noise without eliminating these edge-contour events, thus preserving the contrast of event frames. Consequently, contrast across various time ranges serves as a metric to assess denoising effectiveness. As the time interval lengthens, the curve will initially rise and then fall. The proposed metric is validated through both theoretical and experimental evidence.
- Abstract(参考訳): イベントカメラは、スパースで非同期なイベントストリームを出力するため、その高い効率で有名である。
しかし、特に低照度環境では騒々しい出来事に悩まされている。
denoisingはイベントカメラにとって必須のタスクだが、denoisingパフォーマンスを評価することは難しい。
ラベルに依存した騒音測定は、クリーンなシーケンスに人工的にノイズを追加し、評価を複雑にする。
さらに、これらの指標の大部分はモノトニックであり、かなりのノイズと有効なイベントを取り除いてスコアをインフレーションすることができる。
これらの制限を克服するために, 連続コントラスト曲線(AOCC)の面積を, 時間間隔の異なるイベントフレームコントラスト曲線で囲む面積を用いて, ラベルフリーかつ非単調な評価指標を提案する。
このメトリクスは、イベントが時間分解能の高いシーンやオブジェクトの端の輪郭をキャプチャする方法にインスパイアされている。
効果的なデノナイジング法は、これらのエッジ・コントラストイベントを排除せずにノイズを除去し、イベントフレームのコントラストを保存する。
したがって、様々な時間帯のコントラストは、聴覚効果を評価する指標として機能する。
時間間隔が長くなると、曲線は最初上昇し、その後下降する。
提案された計量は、理論的および実験的証拠の両方を通じて検証される。
関連論文リスト
- LED: A Large-scale Real-world Paired Dataset for Event Camera Denoising [19.51468512911655]
イベントカメラは、ノイズ干渉を受けやすい場合に動的シーン情報をキャプチャする点で大きな利点がある。
我々は,高解像度(1200*680)イベントストリームで18K秒の3Kシーケンスを含む,新しいペア化された実世界のイベントデノゲーションデータセット(LED)を構築した。
そこで本研究では,GTを生音から分離して生成する手法として,均質な二重事象を用いた新しい効果的なデノナイジングフレームワーク(DED)を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:02:35Z) - Noise2Image: Noise-Enabled Static Scene Recovery for Event Cameras [2.630755581216441]
イベントカメラは「イベント」の流れとして時間とともに強度の変化を捉えます
本研究では,照明に依存したノイズ特性を利用してシーンの静的な部分を復元する手法であるNoss2Imageを提案する。
以上の結果から,ノイズ2画像はノイズイベントのみから強度像を頑健に復元できることが示唆された。
論文 参考訳(メタデータ) (2024-04-01T17:59:53Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - E-MLB: Multilevel Benchmark for Event-Based Camera Denoising [12.698543500397275]
イベントカメラは、差動信号を出力する際に、ジャンクションリーク電流と光電流に敏感である。
大規模イベント復号化データセット(イベント復号化のためのマルチレベルベンチマーク、E-MLB)を初めて構築する。
また、与えられた事象の構造強度を測定する最初の非参照事象認知尺度であるイベント構造比(ESR)を提案する。
論文 参考訳(メタデータ) (2023-03-21T16:31:53Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Noise2Kernel: Adaptive Self-Supervised Blind Denoising using a Dilated
Convolutional Kernel Architecture [3.796436257221662]
本研究では,不変性を満たす拡張畳み込みネットワークを提案し,ランダムマスキングを使わずに効率的なカーネルベーストレーニングを実現する。
また,ゼロ平均制約を回避し,塩とペッパーまたはハイブリッドノイズの除去に有効である適応型自己超過損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T12:13:17Z) - Adaptive noise imitation for image denoising [58.21456707617451]
本研究では,自然雑音画像からノイズデータを合成できる新しいテキストバッファ適応ノイズ模倣(ADANI)アルゴリズムを開発した。
現実的なノイズを生成するため、ノイズ発生装置はノイズ発生のガイドとなる雑音/クリーン画像を入力として利用する。
ADANIから出力されるノイズデータとそれに対応する基盤構造とを結合すると、デノイングCNNは、完全に教師された方法で訓練される。
論文 参考訳(メタデータ) (2020-11-30T02:49:36Z) - Improving Blind Spot Denoising for Microscopy [73.94017852757413]
自己監督型認知の質を向上させる新しい方法を提案する。
我々は、クリーンな画像がポイントスプレッド関数(PSF)との畳み込みの結果であり、ニューラルネットワークの最後にこの操作を明示的に含んでいると仮定する。
論文 参考訳(メタデータ) (2020-08-19T13:06:24Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。