論文の概要: Asynchronous Multi-Object Tracking with an Event Camera
- arxiv url: http://arxiv.org/abs/2505.08126v1
- Date: Mon, 12 May 2025 23:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.367398
- Title: Asynchronous Multi-Object Tracking with an Event Camera
- Title(参考訳): イベントカメラを用いた非同期多物体追跡
- Authors: Angus Apps, Ziwei Wang, Vladimir Perejogin, Timothy Molloy, Robert Mahony,
- Abstract要約: 本稿では,AEMOT(Asynchronous Event Multi-Object Tracking)アルゴリズムを提案する。
AEMOTを新しいBee Swarmデータセットで評価し、多数の小さなミツバチを精度とリコール性能で追跡し、代替のイベントベース検出と追跡アルゴリズムを37%以上上回った。
- 参考スコア(独自算出の注目度): 4.001017064909953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Events cameras are ideal sensors for enabling robots to detect and track objects in highly dynamic environments due to their low latency output, high temporal resolution, and high dynamic range. In this paper, we present the Asynchronous Event Multi-Object Tracking (AEMOT) algorithm for detecting and tracking multiple objects by processing individual raw events asynchronously. AEMOT detects salient event blob features by identifying regions of consistent optical flow using a novel Field of Active Flow Directions built from the Surface of Active Events. Detected features are tracked as candidate objects using the recently proposed Asynchronous Event Blob (AEB) tracker in order to construct small intensity patches of each candidate object. A novel learnt validation stage promotes or discards candidate objects based on classification of their intensity patches, with promoted objects having their position, velocity, size, and orientation estimated at their event rate. We evaluate AEMOT on a new Bee Swarm Dataset, where it tracks dozens of small bees with precision and recall performance exceeding that of alternative event-based detection and tracking algorithms by over 37%. Source code and the labelled event Bee Swarm Dataset will be open sourced
- Abstract(参考訳): イベントカメラは、低レイテンシ出力、高時間分解能、高ダイナミックレンジのために、ロボットが非常にダイナミックな環境でオブジェクトを検出し、追跡するための理想的なセンサーである。
本稿では,AEMOT(Asynchronous Event Multi-Object Tracking)アルゴリズムを提案する。
AEMOTは、アクティブイベントの表面から構築された新しいアクティブフロー方向のフィールドを使用して、一貫性のある光フローの領域を識別することで、健全なイベントブロブの特徴を検出する。
検出された機能は、最近提案された非同期イベントブロブ(AEB)トラッカーを使用して、候補オブジェクトの小さな強度パッチを構築するために、候補オブジェクトとして追跡される。
新たな学習検証ステージは、その強度パッチの分類に基づいて、その位置、速度、サイズ、および事象率で推定される方向を有するプロモートオブジェクトを促進または破棄する。
我々は、新しいBee Swarm DatasetでAEMOTを評価し、多数の小さなミツバチを精度とリコール性能で追跡し、代替のイベントベース検出と追跡アルゴリズムを37%以上上回った。
ソースコードとラベル付きイベントBee Swarm Datasetがオープンソース化される
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Avoiding Post-Processing with Event-Based Detection in Biomedical
Signals [69.34035527763916]
学習対象としてイベントを直接扱うイベントベースのモデリングフレームワークを提案する。
イベントベースのモデリング(後処理なし)は、広範囲な後処理を伴うエポックベースのモデリングと同等以上のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-09-22T13:44:13Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - eCDT: Event Clustering for Simultaneous Feature Detection and Tracking- [4.094848360328624]
イベントクラスタリングに基づく検出追跡(eCDT)
提案手法は,最先端手法と比較して,特徴追跡年齢が30%向上した。
論文 参考訳(メタデータ) (2022-07-19T07:39:04Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。