論文の概要: JSTR: Joint Spatio-Temporal Reasoning for Event-based Moving Object
Detection
- arxiv url: http://arxiv.org/abs/2403.07436v1
- Date: Tue, 12 Mar 2024 09:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:25:40.960340
- Title: JSTR: Joint Spatio-Temporal Reasoning for Event-based Moving Object
Detection
- Title(参考訳): JSTR:イベントベース移動物体検出のための同時時空間推論
- Authors: Hanyu Zhou, Zhiwei Shi, Hao Dong, Shihan Peng, Yi Chang, Luxin Yan
- Abstract要約: イベントベースの移動オブジェクト検出は、静的なバックグラウンドと移動オブジェクトが混在する難しいタスクである。
イベントベース移動物体検出のための新しい共同時間推論法を提案する。
- 参考スコア(独自算出の注目度): 17.3397709143323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based moving object detection is a challenging task, where static
background and moving object are mixed together. Typically, existing methods
mainly align the background events to the same spatial coordinate system via
motion compensation to distinguish the moving object. However, they neglect the
potential spatial tailing effect of moving object events caused by excessive
motion, which may affect the structure integrity of the extracted moving
object. We discover that the moving object has a complete columnar structure in
the point cloud composed of motion-compensated events along the timestamp.
Motivated by this, we propose a novel joint spatio-temporal reasoning method
for event-based moving object detection. Specifically, we first compensate the
motion of background events using inertial measurement unit. In spatial
reasoning stage, we project the compensated events into the same image
coordinate, discretize the timestamp of events to obtain a time image that can
reflect the motion confidence, and further segment the moving object through
adaptive threshold on the time image. In temporal reasoning stage, we construct
the events into a point cloud along timestamp, and use RANSAC algorithm to
extract the columnar shape in the cloud for peeling off the background.
Finally, we fuse the results from the two reasoning stages to extract the final
moving object region. This joint spatio-temporal reasoning framework can
effectively detect the moving object from motion confidence and geometric
structure. Moreover, we conduct extensive experiments on various datasets to
verify that the proposed method can improve the moving object detection
accuracy by 13\%.
- Abstract(参考訳): イベントベースの移動オブジェクト検出は、静的なバックグラウンドと移動オブジェクトが混在する難しいタスクである。
一般的に、既存の手法では背景イベントを運動補償によって同じ空間座標系に合わせ、移動物体を識別する。
しかし, 過度な動きによる移動物体イベントの空間的尾行効果は無視され, 抽出した移動物体の構造的整合性に影響を与える可能性がある。
移動物体はタイムスタンプに沿った運動補償イベントからなる点雲に完全な円柱構造を持つことがわかった。
そこで我々は,イベントベース移動物体検出のための新しい時空間推定法を提案する。
具体的には,慣性測定ユニットを用いて背景イベントの動きを補償する。
空間的推論の段階では、補償されたイベントを同じ画像座標に投影し、イベントのタイムスタンプを識別し、動きの信頼性を反映できる時間画像を取得し、さらに時間画像上の適応しきい値を通して移動対象を分割する。
時間的推論の段階では,イベントをタイムスタンプに沿って点雲に構築し,RANSACアルゴリズムを用いて雲中の柱状形状を抽出し,背景を剥離する。
最後に、2つの推論段階から結果を融合して最終移動対象領域を抽出する。
この時空間推論フレームワークは、運動の自信と幾何学的構造から移動物体を効果的に検出することができる。
さらに,提案手法が移動物体検出精度を13%向上できることを示すため,様々なデータセットに対する広範な実験を行った。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - Instantaneous Perception of Moving Objects in 3D [86.38144604783207]
周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-05T01:07:24Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。