論文の概要: Simultaneous Motion And Noise Estimation with Event Cameras
- arxiv url: http://arxiv.org/abs/2504.04029v2
- Date: Fri, 01 Aug 2025 07:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.358409
- Title: Simultaneous Motion And Noise Estimation with Event Cameras
- Title(参考訳): イベントカメラによる動きと騒音の同時推定
- Authors: Shintaro Shiba, Yoshimitsu Aoki, Guillermo Gallego,
- Abstract要約: イベントカメラは、ノイズを特徴付けるのが難しい視覚センサーが登場しつつある。
既存のイベントカメラのデノイング手法は、しばしば独立して設計される。
本稿では,我々の知る限り,各形態の運動を同時に推定する最初の手法を提案する。
- 参考スコア(独自算出の注目度): 18.2247510082534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are emerging vision sensors whose noise is challenging to characterize. Existing denoising methods for event cameras are often designed in isolation and thus consider other tasks, such as motion estimation, separately (i.e., sequentially after denoising). However, motion is an intrinsic part of event data, since scene edges cannot be sensed without motion. We propose, to the best of our knowledge, the first method that simultaneously estimates motion in its various forms (e.g., ego-motion, optical flow) and noise. The method is flexible, as it allows replacing the one-step motion estimation of the widely-used Contrast Maximization framework with any other motion estimator, such as deep neural networks. The experiments show that the proposed method achieves state-of-the-art results on the E-MLB denoising benchmark and competitive results on the DND21 benchmark, while demonstrating effectiveness across motion estimation and intensity reconstruction tasks. Our approach advances event-data denoising theory and expands practical denoising use-cases via open-source code. Project page: https://github.com/tub-rip/ESMD
- Abstract(参考訳): イベントカメラは、ノイズを特徴付けるのが難しい視覚センサーが登場しつつある。
既存のデノナイジング手法はしばしば独立して設計されており、運動推定などの他のタスクも別々に検討している(つまり、デノナイジング後に順次)。
しかし、動きは、シーンエッジが動きなしでは認識できないため、イベントデータの本質的な部分である。
本稿では,我々の知る限り,様々な形態(例えば,エゴモーション,光流)の運動と雑音を同時に推定する最初の手法を提案する。
この方法は柔軟で、広く使われているコントラスト最大化フレームワークの一段階のモーション推定を、ディープニューラルネットワークのような他のモーション推定装置に置き換えることができる。
実験により,提案手法は,DND21ベンチマークにおいて,E-MLBデノナイジングベンチマークの最先端結果と競合結果を達成するとともに,動作推定および強度再構成タスクにおける有効性を示す。
当社のアプローチでは,イベントデータの復号化理論を推進し,オープンソースコードによる実用的な復号化ユースケースを拡張している。
プロジェクトページ:https://github.com/tub-rip/ESMD
関連論文リスト
- Iterative Event-based Motion Segmentation by Variational Contrast Maximization [16.68279129685]
イベントカメラは、シーンの変化に反応するため、モーション推定に適したリッチな信号を提供する。
事象を背景(支配的な動き仮説など)と前景(独立な動き残差)に分類する反復的な動き分割法を提案する。
実験の結果,提案手法は,公開データセットと自己記録データセットの両方において,イベントクラスタの分類に成功していることがわかった。
論文 参考訳(メタデータ) (2025-04-25T16:00:23Z) - Can Optical Denoising Clean Sonar Images? A Benchmark and Fusion Approach [24.02055678758872]
ソナー画像における物体検出は水中ロボット工学の応用に不可欠である。
復調技術は光学画像において顕著な成功を収めてきたが、ソナーデータの適用性は未解明のままである。
本研究では、異なるアーキテクチャを持つ9つの最先端のディープ・デノゲーション・モデルについて、初めて体系的評価を行った。
論文 参考訳(メタデータ) (2025-03-03T15:30:39Z) - Combining Pre- and Post-Demosaicking Noise Removal for RAW Video [2.772895608190934]
Denoisingは、カメラセンサーが捉えたデータをディスプレイ対応の画像やビデオに変換する処理パイプラインの基本ステップの1つである。
本研究では,ベイアパターンのCFAビデオデータに対して,事前および復号化後のデノイザを重み付けする自己相似型デノイザ方式を提案する。
両者のバランスが画像品質の向上につながることを示し、高ノイズレベルがより高影響のプレデモーザックの恩恵を受けることを実証的に見出した。
論文 参考訳(メタデータ) (2024-10-03T15:20:19Z) - A Label-Free and Non-Monotonic Metric for Evaluating Denoising in Event Cameras [17.559229117246666]
イベントカメラは、スパースで非同期なイベントストリームを出力するため、その高い効率で有名である。
denoisingはイベントカメラにとって必須のタスクだが、denoisingパフォーマンスを評価することは難しい。
連続コントラスト曲線(AOCC)の面積であるラベルフリーで非単調な評価指標を提案する。
論文 参考訳(メタデータ) (2024-06-13T08:12:48Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - DiffTAD: Temporal Action Detection with Proposal Denoising Diffusion [137.8749239614528]
そこで我々は,時間的行動検出(TAD)の新しい定式化を提案し,拡散を抑えるDiffTADを提案する。
入力されたランダムな時間的提案を考慮すれば、トリミングされていない長いビデオが与えられたアクションの提案を正確に得ることができる。
論文 参考訳(メタデータ) (2023-03-27T00:40:52Z) - E-MLB: Multilevel Benchmark for Event-Based Camera Denoising [12.698543500397275]
イベントカメラは、差動信号を出力する際に、ジャンクションリーク電流と光電流に敏感である。
大規模イベント復号化データセット(イベント復号化のためのマルチレベルベンチマーク、E-MLB)を初めて構築する。
また、与えられた事象の構造強度を測定する最初の非参照事象認知尺度であるイベント構造比(ESR)を提案する。
論文 参考訳(メタデータ) (2023-03-21T16:31:53Z) - Event-based Camera Simulation using Monte Carlo Path Tracing with
Adaptive Denoising [10.712584582512811]
イベントベースのビデオは、ノイズのある明るさ値から変化を検出するプロセスと見なすことができる。
重み付き局所回帰に基づく復調法を拡張し,明るさ変化を検出する。
論文 参考訳(メタデータ) (2023-03-05T08:44:01Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Noise2Same: Optimizing A Self-Supervised Bound for Image Denoising [54.730707387866076]
本稿では,新しい自己教師型デノベーションフレームワークであるNoss2Sameを紹介する。
特にノイズ2Sameは、ノイズモデルに関するJ-不変性や余分な情報を必要としない。
以上の結果から,ノイズ2Sameは従来の自己監督型遮音法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-10-22T18:12:26Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。