論文の概要: Motion-aware Event Suppression for Event Cameras
- arxiv url: http://arxiv.org/abs/2602.23204v1
- Date: Thu, 26 Feb 2026 16:53:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.792248
- Title: Motion-aware Event Suppression for Event Cameras
- Title(参考訳): イベントカメラの動作認識イベント抑制
- Authors: Roberto Pellerito, Nico Messikommer, Giovanni Cioffi, Marco Cannici, Davide Scaramuzza,
- Abstract要約: 我々は、IMOやエゴモーションによって引き起こされるイベントをリアルタイムにフィルタリングすることを学ぶ、モーション対応イベント抑圧のための最初のフレームワークを紹介する。
我々のモデルは、現在のイベントストリームにおいて、将来の動きを予測しながらIMOを共同でセグメントし、それが起こる前に動的イベントの予測的抑制を可能にする。
- 参考スコア(独自算出の注目度): 30.62753934435491
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce the first framework for Motion-aware Event Suppression, which learns to filter events triggered by IMOs and ego-motion in real time. Our model jointly segments IMOs in the current event stream while predicting their future motion, enabling anticipatory suppression of dynamic events before they occur. Our lightweight architecture achieves 173 Hz inference on consumer-grade GPUs with less than 1 GB of memory usage, outperforming previous state-of-the-art methods on the challenging EVIMO benchmark by 67\% in segmentation accuracy while operating at a 53\% higher inference rate. Moreover, we demonstrate significant benefits for downstream applications: our method accelerates Vision Transformer inference by 83\% via token pruning and improves event-based visual odometry accuracy, reducing Absolute Trajectory Error (ATE) by 13\%.
- Abstract(参考訳): In this work, we introduced the first framework for Motion-aware Event Suppression, which learns to filter events trigger by IMOs and ego-motion in real time。
我々のモデルは、現在のイベントストリームにおいて、将来の動きを予測しながらIMOを共同でセグメントし、それが起こる前に動的イベントの予測的抑制を可能にする。
我々の軽量アーキテクチャは1GB未満のコンシューマグレードGPU上で173Hzの推論を達成し、53倍の推論レートで動作しながら、挑戦的EVIMOベンチマークにおける従来の最先端の手法を67倍のセグメンテーション精度で上回っている。
さらに,本手法はトークンプルーニングによるビジョントランスフォーマーの推測を83%高速化し,イベントベースの視覚計測精度を向上し,絶対軌道誤差(ATE)を13%削減する。
関連論文リスト
- Event-based Visual Deformation Measurement [76.25283405575108]
視覚的変形測定は、カメラ観測から表面の動きを追跡することによって、高密度な変形場を復元することを目的としている。
従来の画像ベースの手法は、対応検索空間を制限するため、最小限のフレーム間動作に依存している。
本研究では,時間的に密集した動きキューやフレームのイベントを利用して,空間的に密集した正確な推定を行うイベントフレーム融合フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T01:04:48Z) - Scalable Event-by-event Processing of Neuromorphic Sensory Signals With Deep State-Space Models [2.551844666707809]
イベントベースのセンサーはリアルタイム処理に適している。
現在の方法では、イベントをフレームに分解するか、イベントデータをイベント単位で直接処理する場合にスケールアップできない。
論文 参考訳(メタデータ) (2024-04-29T08:50:27Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Event Transformer+. A multi-purpose solution for efficient event data
processing [13.648678472312374]
イベントカメラは、高時間分解能と高ダイナミックレンジでスパース照明変化を記録する。
現在の手法は特定のイベントデータ特性を無視することが多く、汎用的だが計算コストのかかるアルゴリズムの開発に繋がる。
本稿では,改良されたパッチベースのイベント表現を用いて,セマンティックな作業EvTを改善するEvent Transformer+を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:28:37Z) - It Takes Two: Masked Appearance-Motion Modeling for Self-supervised
Video Transformer Pre-training [76.69480467101143]
自己監督型ビデオトランスフォーマーの事前トレーニングは、最近マスク・アンド・予測パイプラインの恩恵を受けている。
本稿では,映像中の動きの手がかりを余分な予測対象として明示的に調査し,マスケッド・出現運動モデリングフレームワークを提案する。
一般的なビデオ表現を学習し、Kinects-400で82.3%、Something V2で71.3%、UCF101で91.5%、HMDB51で62.5%を達成する。
論文 参考訳(メタデータ) (2022-10-11T08:05:18Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。