論文の概要: Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking
- arxiv url: http://arxiv.org/abs/2002.05583v1
- Date: Thu, 13 Feb 2020 15:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:31:53.328191
- Title: Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking
- Title(参考訳): イベントベース物体追跡のための適応時間面の非同期追従検出
- Authors: Haosheng Chen, Qiangqiang Wu, Yanjie Liang, Xinbo Gao, Hanzi Wang
- Abstract要約: 本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
- 参考スコア(独自算出の注目度): 87.0297771292994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras, which are asynchronous bio-inspired vision sensors, have shown
great potential in a variety of situations, such as fast motion and low
illumination scenes. However, most of the event-based object tracking methods
are designed for scenarios with untextured objects and uncluttered backgrounds.
There are few event-based object tracking methods that support bounding
box-based object tracking. The main idea behind this work is to propose an
asynchronous Event-based Tracking-by-Detection (ETD) method for generic
bounding box-based object tracking. To achieve this goal, we present an
Adaptive Time-Surface with Linear Time Decay (ATSLTD) event-to-frame conversion
algorithm, which asynchronously and effectively warps the spatio-temporal
information of asynchronous retinal events to a sequence of ATSLTD frames with
clear object contours. We feed the sequence of ATSLTD frames to the proposed
ETD method to perform accurate and efficient object tracking, which leverages
the high temporal resolution property of event cameras. We compare the proposed
ETD method with seven popular object tracking methods, that are based on
conventional cameras or event cameras, and two variants of ETD. The
experimental results show the superiority of the proposed ETD method in
handling various challenging environments.
- Abstract(参考訳): 非同期バイオインスパイアされた視覚センサであるイベントカメラは、高速モーションや低照度シーンなど、さまざまな状況において大きな可能性を示している。
しかし、イベントベースのオブジェクト追跡手法のほとんどは、コンテキストのないオブジェクトと乱雑な背景を持つシナリオ用に設計されている。
バウンディングボックスベースのオブジェクトトラッキングをサポートするイベントベースのオブジェクトトラッキングメソッドは少ない。
この作業の主なアイデアは、汎用的なバウンディングボックスベースのオブジェクトトラッキングのための非同期イベントベースのトラッキング・バイ・ディテククション(ETD)メソッドを提案することである。
この目的を達成するために、非同期網膜イベントの時空間情報を非同期かつ効果的に予測するATSLTD(Adaptive Time-Surface with Linear Time Decay)イベント・ツー・フレーム変換アルゴリズムを提案する。
本研究では,atsltdフレームのシーケンスをetd法に供給し,イベントカメラの高時間分解能特性を活かし,高精度かつ効率的な物体追跡を行う。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
実験結果から,様々な難易度環境に対するETD法の有効性が示された。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - Solution for Point Tracking Task of ICCV 1st Perception Test Challenge 2023 [50.910598799408326]
Tracking Any Point (TAP) タスクは、ビデオを通じて任意の物理的表面を追跡する。
既存のいくつかのアプローチは、スムーズな運動軌跡を得るための時間的関係を考慮し、TAPを探索してきた。
我々は,静的カメラが撮影したビデオの静的点追跡の修正に焦点を当てた,信頼度の高い静的点付きTAP(TAPIR+)を提案する。
論文 参考訳(メタデータ) (2024-03-26T13:50:39Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - e-TLD: Event-based Framework for Dynamic Object Tracking [23.026432675020683]
本稿では,一般的な追跡条件下での移動イベントカメラを用いた長期オブジェクト追跡フレームワークを提案する。
このフレームワークは、オンライン学習を伴うオブジェクトの識別表現を使用し、ビューのフィールドに戻るとオブジェクトを検出し、追跡する。
論文 参考訳(メタデータ) (2020-09-02T07:08:56Z) - A Hybrid Neuromorphic Object Tracking and Classification Framework for
Real-time Systems [5.959466944163293]
本稿では,イベントベースカメラを用いた物体追跡と分類のためのリアルタイムハイブリッドニューロモルフィックフレームワークを提案する。
イベント・バイ・イベント処理の従来のアプローチとは異なり、この作業では混合フレームとイベント・アプローチを使用して高性能な省エネを実現している。
論文 参考訳(メタデータ) (2020-07-21T07:11:27Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。