論文の概要: e-TLD: Event-based Framework for Dynamic Object Tracking
- arxiv url: http://arxiv.org/abs/2009.00855v1
- Date: Wed, 2 Sep 2020 07:08:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:21:24.481220
- Title: e-TLD: Event-based Framework for Dynamic Object Tracking
- Title(参考訳): e-TLD:動的オブジェクト追跡のためのイベントベースのフレームワーク
- Authors: Bharath Ramesh, Shihao Zhang, Hong Yang, Andres Ussa, Matthew Ong,
Garrick Orchard and Cheng Xiang
- Abstract要約: 本稿では,一般的な追跡条件下での移動イベントカメラを用いた長期オブジェクト追跡フレームワークを提案する。
このフレームワークは、オンライン学習を伴うオブジェクトの識別表現を使用し、ビューのフィールドに戻るとオブジェクトを検出し、追跡する。
- 参考スコア(独自算出の注目度): 23.026432675020683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a long-term object tracking framework with a moving event
camera under general tracking conditions. A first of its kind for these
revolutionary cameras, the tracking framework uses a discriminative
representation for the object with online learning, and detects and re-tracks
the object when it comes back into the field-of-view. One of the key novelties
is the use of an event-based local sliding window technique that tracks
reliably in scenes with cluttered and textured background. In addition,
Bayesian bootstrapping is used to assist real-time processing and boost the
discriminative power of the object representation. On the other hand, when the
object re-enters the field-of-view of the camera, a data-driven, global sliding
window detector locates the object for subsequent tracking. Extensive
experiments demonstrate the ability of the proposed framework to track and
detect arbitrary objects of various shapes and sizes, including dynamic objects
such as a human. This is a significant improvement compared to earlier works
that simply track objects as long as they are visible under simpler background
settings. Using the ground truth locations for five different objects under
three motion settings, namely translation, rotation and 6-DOF, quantitative
measurement is reported for the event-based tracking framework with critical
insights on various performance issues. Finally, real-time implementation in
C++ highlights tracking ability under scale, rotation, view-point and occlusion
scenarios in a lab setting.
- Abstract(参考訳): 本稿では,一般的な追跡条件下での移動イベントカメラを用いた長期オブジェクト追跡フレームワークを提案する。
この種の革命的なカメラでは、トラッキングフレームワークは、オンライン学習を伴うオブジェクトの識別表現を使用し、フィールドオブビューに戻ってきたオブジェクトを検知し、再追跡する。
重要な特徴の1つは、イベントベースのローカルスライディングウインドウ技術を使用することで、乱雑でテクスチャな背景を持つシーンを確実に追跡する。
さらに、リアルタイム処理を支援し、オブジェクト表現の識別力を高めるためにベイジアンブートストラッピングが使用される。
一方、オブジェクトがカメラの視野に再入ってくると、データ駆動で大域的スライディングウィンドウ検出器が追跡対象を検知する。
大規模な実験では,人間などの動的物体を含む,様々な形状や大きさの任意の物体を追跡・検出できるフレームワークが実証されている。
これは、単純な背景設定で見える限りオブジェクトを追跡する以前の作品と比べて大幅に改善されている。
3つの動作条件,すなわち翻訳,回転,6-DOFの5つの動作条件下での地上の真理位置を用いて,イベントベースのトラッキングフレームワークの定量的測定を行い,様々なパフォーマンス問題に対する重要な洞察を得た。
最後に、C++のリアルタイム実装では、スケール、ローテーション、ビューポイント、オクルージョンシナリオにおけるトラッキング機能を強調している。
関連論文リスト
- Distractor-aware Event-based Tracking [45.07711356111249]
本稿では,シームズネットワークアーキテクチャ(DANet)にトランスフォーマーモジュールを導入するイベントベースのトラッカーを提案する。
本モデルは主にモーション認識ネットワークとターゲット認識ネットワークで構成され,イベントデータから動作キューとオブジェクトの輪郭の両方を同時に活用する。
私たちのDANetは、後処理なしでエンドツーエンドでトレーニングでき、単一のV100上で80FPS以上で実行できます。
論文 参考訳(メタデータ) (2023-10-22T05:50:20Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。