論文の概要: JSTR: Joint Spatio-Temporal Reasoning for Event-based Moving Object
Detection
- arxiv url: http://arxiv.org/abs/2403.07436v1
- Date: Tue, 12 Mar 2024 09:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:25:40.960340
- Title: JSTR: Joint Spatio-Temporal Reasoning for Event-based Moving Object
Detection
- Title(参考訳): JSTR:イベントベース移動物体検出のための同時時空間推論
- Authors: Hanyu Zhou, Zhiwei Shi, Hao Dong, Shihan Peng, Yi Chang, Luxin Yan
- Abstract要約: イベントベースの移動オブジェクト検出は、静的なバックグラウンドと移動オブジェクトが混在する難しいタスクである。
イベントベース移動物体検出のための新しい共同時間推論法を提案する。
- 参考スコア(独自算出の注目度): 17.3397709143323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based moving object detection is a challenging task, where static
background and moving object are mixed together. Typically, existing methods
mainly align the background events to the same spatial coordinate system via
motion compensation to distinguish the moving object. However, they neglect the
potential spatial tailing effect of moving object events caused by excessive
motion, which may affect the structure integrity of the extracted moving
object. We discover that the moving object has a complete columnar structure in
the point cloud composed of motion-compensated events along the timestamp.
Motivated by this, we propose a novel joint spatio-temporal reasoning method
for event-based moving object detection. Specifically, we first compensate the
motion of background events using inertial measurement unit. In spatial
reasoning stage, we project the compensated events into the same image
coordinate, discretize the timestamp of events to obtain a time image that can
reflect the motion confidence, and further segment the moving object through
adaptive threshold on the time image. In temporal reasoning stage, we construct
the events into a point cloud along timestamp, and use RANSAC algorithm to
extract the columnar shape in the cloud for peeling off the background.
Finally, we fuse the results from the two reasoning stages to extract the final
moving object region. This joint spatio-temporal reasoning framework can
effectively detect the moving object from motion confidence and geometric
structure. Moreover, we conduct extensive experiments on various datasets to
verify that the proposed method can improve the moving object detection
accuracy by 13\%.
- Abstract(参考訳): イベントベースの移動オブジェクト検出は、静的なバックグラウンドと移動オブジェクトが混在する難しいタスクである。
一般的に、既存の手法では背景イベントを運動補償によって同じ空間座標系に合わせ、移動物体を識別する。
しかし, 過度な動きによる移動物体イベントの空間的尾行効果は無視され, 抽出した移動物体の構造的整合性に影響を与える可能性がある。
移動物体はタイムスタンプに沿った運動補償イベントからなる点雲に完全な円柱構造を持つことがわかった。
そこで我々は,イベントベース移動物体検出のための新しい時空間推定法を提案する。
具体的には,慣性測定ユニットを用いて背景イベントの動きを補償する。
空間的推論の段階では、補償されたイベントを同じ画像座標に投影し、イベントのタイムスタンプを識別し、動きの信頼性を反映できる時間画像を取得し、さらに時間画像上の適応しきい値を通して移動対象を分割する。
時間的推論の段階では,イベントをタイムスタンプに沿って点雲に構築し,RANSACアルゴリズムを用いて雲中の柱状形状を抽出し,背景を剥離する。
最後に、2つの推論段階から結果を融合して最終移動対象領域を抽出する。
この時空間推論フレームワークは、運動の自信と幾何学的構造から移動物体を効果的に検出することができる。
さらに,提案手法が移動物体検出精度を13%向上できることを示すため,様々なデータセットに対する広範な実験を行った。
関連論文リスト
- SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - e-TLD: Event-based Framework for Dynamic Object Tracking [23.026432675020683]
本稿では,一般的な追跡条件下での移動イベントカメラを用いた長期オブジェクト追跡フレームワークを提案する。
このフレームワークは、オンライン学習を伴うオブジェクトの識別表現を使用し、ビューのフィールドに戻るとオブジェクトを検出し、追跡する。
論文 参考訳(メタデータ) (2020-09-02T07:08:56Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。