論文の概要: CETUS: Causal Event-Driven Temporal Modeling With Unified Variable-Rate Scheduling
- arxiv url: http://arxiv.org/abs/2509.13784v1
- Date: Wed, 17 Sep 2025 07:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.771239
- Title: CETUS: Causal Event-Driven Temporal Modeling With Unified Variable-Rate Scheduling
- Title(参考訳): CETUS: 統一型可変レートスケジューリングによる因果イベント駆動型時間モデリング
- Authors: Hanfang Liang, Bing Wang, Shizhen Zhang, Wen Jiang, Yizhuo Yang, Weixiang Guo, Shenghai Yuan,
- Abstract要約: イベントカメラは、マイクロ秒時間解像度で非同期ピクセルレベルの輝度変化をキャプチャする。
既存の方法では、イベントストリームをフレーム、ボクセルグリッド、ポイントクラウドなどの中間表現に変換することが多い。
本稿では、中間表現なしで生イベントストリームを直接処理する新しいアーキテクチャである可変レート空間イベントマンバを提案する。
- 参考スコア(独自算出の注目度): 18.82030002020162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras capture asynchronous pixel-level brightness changes with microsecond temporal resolution, offering unique advantages for high-speed vision tasks. Existing methods often convert event streams into intermediate representations such as frames, voxel grids, or point clouds, which inevitably require predefined time windows and thus introduce window latency. Meanwhile, pointwise detection methods face computational challenges that prevent real-time efficiency due to their high computational cost. To overcome these limitations, we propose the Variable-Rate Spatial Event Mamba, a novel architecture that directly processes raw event streams without intermediate representations. Our method introduces a lightweight causal spatial neighborhood encoder to efficiently capture local geometric relations, followed by Mamba-based state space models for scalable temporal modeling with linear complexity. During inference, a controller adaptively adjusts the processing speed according to the event rate, achieving an optimal balance between window latency and inference latency.
- Abstract(参考訳): イベントカメラは、マイクロ秒時間解像度で非同期ピクセルレベルの輝度変化をキャプチャし、高速ビジョンタスクに特有の利点を提供する。
既存のメソッドは、イベントストリームをフレーム、ボクセルグリッド、ポイントクラウドなどの中間表現に変換することが多い。
一方、ポイントワイド検出法は、計算コストが高いためにリアルタイムの効率を損なうような計算課題に直面している。
これらの制約を克服するために、中間表現なしで生イベントストリームを直接処理する新しいアーキテクチャである可変レート空間イベントマンバ(Variable-Rate Spatial Event Mamba)を提案する。
本手法では,局所的な幾何学的関係を効率的に捉えるための軽量な因果空間近傍エンコーダを導入し,続いて,線形複雑性を伴う拡張時間モデリングのためのマンバに基づく状態空間モデルを提案する。
推論中、コントローラはイベントレートに応じて処理速度を適応的に調整し、ウィンドウ遅延と推論レイテンシの最適なバランスを達成する。
関連論文リスト
- Inference-Time Gaze Refinement for Micro-Expression Recognition: Enhancing Event-Based Eye Tracking with Motion-Aware Post-Processing [2.5465367830324905]
イベントベースの視線追跡は、きめ細かい認知状態の推測に重要な可能性を秘めている。
本稿では、既存の事象に基づく視線推定モデルの出力を高めるために、モデルに依存しない推論時間改善フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-14T14:48:11Z) - Fully Spiking Neural Networks for Unified Frame-Event Object Tracking [11.727693745877486]
フレームとイベントデータを融合するために、スパイキングフレームイベント追跡フレームワークが提案されている。
RPMは位置バイアスのランダム化空間再構成と学習可能な型符号化を除去する。
STR戦略は、潜在空間におけるテンプレート機能間の時間的一貫性を強制する。
論文 参考訳(メタデータ) (2025-05-27T07:53:50Z) - Event Signal Filtering via Probability Flux Estimation [58.31652473933809]
イベントは、非同期センシングを通じてシーンダイナミクスをキャプチャするための新しいパラダイムを提供するが、その固有のランダム性は、しばしば劣化した信号品質につながる。
したがって、イベント信号フィルタリングは、この内部ランダム性を低減し、多様な取得条件をまたいだ一貫した出力を確保することで、忠実性を高めるために不可欠である。
本稿ではイベント密度フローフィルタ(EDFilter)と呼ばれる生成オンラインフィルタリングフレームワークを紹介する。
実験では、イベントフィルタリング、スーパーレゾリューション、イベントベースの直接追跡といったタスクでEDFilterのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-10T07:03:08Z) - EventMamba: Enhancing Spatio-Temporal Locality with State Space Models for Event-Based Video Reconstruction [66.84997711357101]
EventMambaは、イベントベースのビデオ再構成タスク用に設計された、特殊なモデルである。
EventMambaは、Transformerベースの方法と比較して、優れた視覚的品質を提供しながら、スピードを著しく向上させる。
論文 参考訳(メタデータ) (2025-03-25T14:46:45Z) - Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。