論文の概要: EDmamba: A Simple yet Effective Event Denoising Method with State Space Model
- arxiv url: http://arxiv.org/abs/2505.05391v1
- Date: Thu, 08 May 2025 16:27:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.95555
- Title: EDmamba: A Simple yet Effective Event Denoising Method with State Space Model
- Title(参考訳): EDmamba: ステートスペースモデルによるシンプルだが効果的なイベントDenoising方法
- Authors: Ciyu Ruan, Zihang Gong, Ruishan Guo, Jingao Xu, Xinlei Chen,
- Abstract要約: イベントカメラは、高時間ダイナミックレンジと低消費電力のため、高速視界で優れている。
ダイナミックな視覚センサーとして、出力は本質的にノイズが多いため、超低レイテンシとリアルタイム処理能力を維持するために効率的なノイズ処理が不可欠である。
状態空間モデル(SSM)に基づく新しいイベント記述フレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.776133942771768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras excel in high-speed vision due to their high temporal resolution, high dynamic range, and low power consumption. However, as dynamic vision sensors, their output is inherently noisy, making efficient denoising essential to preserve their ultra-low latency and real-time processing capabilities. Existing event denoising methods struggle with a critical dilemma: computationally intensive approaches compromise the sensor's high-speed advantage, while lightweight methods often lack robustness across varying noise levels. To address this, we propose a novel event denoising framework based on State Space Models (SSMs). Our approach represents events as 4D event clouds and includes a Coarse Feature Extraction (CFE) module that extracts embedding features from both geometric and polarity-aware subspaces. The model is further composed of two essential components: A Spatial Mamba (S-SSM) that models local geometric structures and a Temporal Mamba (T-SSM) that captures global temporal dynamics, efficiently propagating spatiotemporal features across events. Experiments demonstrate that our method achieves state-of-the-art accuracy and efficiency, with 88.89K parameters, 0.0685s per 100K events inference time, and a 0.982 accuracy score, outperforming Transformer-based methods by 2.08% in denoising accuracy and 36X faster.
- Abstract(参考訳): イベントカメラは、高時間分解能、高ダイナミックレンジ、低消費電力のため、高速ビジョンで優れている。
しかし、ダイナミックな視覚センサーとして出力は本質的にノイズが多いため、超低レイテンシとリアルタイム処理能力を維持するために効率的なノイズ処理が不可欠である。
計算集約的なアプローチはセンサーの高速な優位性を損なうが、軽量な手法は様々なノイズレベルにわたって堅牢性を欠いていることが多い。
そこで本稿では,ステートスペースモデル(SSM)に基づく新しいイベント記述フレームワークを提案する。
当社のアプローチでは,イベントを4次元イベントクラウドとして表現し,幾何学的および極性対応のサブスペースから埋め込み機能を抽出する粗い特徴抽出(CFE)モジュールを含む。
このモデルは、局所的な幾何学構造をモデル化する空間マンバ(S-SSM)と、グローバルな時間的ダイナミクスを捉え、イベント間の時空間的特徴を効率的に伝播するテンポラルマンバ(T-SSM)の2つの重要な構成要素で構成されている。
実験の結果,88.89Kパラメータ,100Kイベント毎の0.0685s,0.982の精度スコアが得られた。
関連論文リスト
- EgoEvGesture: Gesture Recognition Based on Egocentric Event Camera [17.61884467264023]
本稿では,イベントデータ処理に特化して設計された新しいネットワークアーキテクチャを提案する。
イベントカメラを用いたエゴセントリックなジェスチャー認識のための,最初の大規模データセットを構築した。
本手法は,7Mパラメータのみの未確認被験者に対して62.7%の精度を達成し,最先端手法よりも3.1%高い精度を示した。
論文 参考訳(メタデータ) (2025-03-16T09:08:02Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - LED: A Large-scale Real-world Paired Dataset for Event Camera Denoising [19.51468512911655]
イベントカメラは、ノイズ干渉を受けやすい場合に動的シーン情報をキャプチャする点で大きな利点がある。
我々は,高解像度(1200*680)イベントストリームで18K秒の3Kシーケンスを含む,新しいペア化された実世界のイベントデノゲーションデータセット(LED)を構築した。
そこで本研究では,GTを生音から分離して生成する手法として,均質な二重事象を用いた新しい効果的なデノナイジングフレームワーク(DED)を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:02:35Z) - Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - The Missing U for Efficient Diffusion Models [3.712196074875643]
拡散確率モデル(Diffusion Probabilistic Models)は、画像合成、ビデオ生成、分子設計などのタスクにおいて、記録破りのパフォーマンスをもたらす。
それらの能力にもかかわらず、その効率、特に逆過程では、収束速度が遅いことと計算コストが高いため、依然として課題である。
本研究では,連続力学系を利用した拡散モデルのための新しいデノナイジングネットワークの設計手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T00:12:14Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。