論文の概要: End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking
- arxiv url: http://arxiv.org/abs/2002.05911v1
- Date: Fri, 14 Feb 2020 08:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:59:19.789958
- Title: End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking
- Title(参考訳): 事象追跡のための網膜イベントからの物体運動推定のエンドツーエンド学習
- Authors: Haosheng Chen, David Suter, Qiangqiang Wu, Hanzi Wang
- Abstract要約: イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
- 参考スコア(独自算出の注目度): 35.95703377642108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras, which are asynchronous bio-inspired vision sensors, have shown
great potential in computer vision and artificial intelligence. However, the
application of event cameras to object-level motion estimation or tracking is
still in its infancy. The main idea behind this work is to propose a novel deep
neural network to learn and regress a parametric object-level motion/transform
model for event-based object tracking. To achieve this goal, we propose a
synchronous Time-Surface with Linear Time Decay (TSLTD) representation, which
effectively encodes the spatio-temporal information of asynchronous retinal
events into TSLTD frames with clear motion patterns. We feed the sequence of
TSLTD frames to a novel Retinal Motion Regression Network (RMRNet) to perform
an end-to-end 5-DoF object motion regression. Our method is compared with
state-of-the-art object tracking methods, that are based on conventional
cameras or event cameras. The experimental results show the superiority of our
method in handling various challenging environments such as fast motion and low
illumination conditions.
- Abstract(参考訳): 非同期バイオインスパイアされた視覚センサであるイベントカメラは、コンピュータビジョンと人工知能に大きな可能性を示している。
しかし、イベントカメラのオブジェクトレベルの動き推定やトラッキングへの応用はまだ初期段階にある。
この研究の主なアイデアは、イベントベースのオブジェクトトラッキングのためのパラメトリックオブジェクトレベルのモーション/トランスフォーメーションモデルを学習し、回帰するための、新しいディープニューラルネットワークを提案することである。
この目的を達成するために、非同期網膜イベントの時空間情報を明確な動きパターンを持つTSLTDフレームに効果的に符号化する、線形時間分解(TSLTD)表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンドツーエンドの5-DoFオブジェクトのモーションレグレッションを実行する。
本手法は,従来のカメラやイベントカメラをベースとした最先端の物体追跡手法と比較する。
実験の結果, 高速動作や低照度条件など様々な難易度環境において, 提案手法が優れていることがわかった。
関連論文リスト
- Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - Distractor-aware Event-based Tracking [45.07711356111249]
本稿では,シームズネットワークアーキテクチャ(DANet)にトランスフォーマーモジュールを導入するイベントベースのトラッカーを提案する。
本モデルは主にモーション認識ネットワークとターゲット認識ネットワークで構成され,イベントデータから動作キューとオブジェクトの輪郭の両方を同時に活用する。
私たちのDANetは、後処理なしでエンドツーエンドでトレーニングでき、単一のV100上で80FPS以上で実行できます。
論文 参考訳(メタデータ) (2023-10-22T05:50:20Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Tracking 6-DoF Object Motion from Events and Frames [0.0]
本研究では,6自由度(6-DoF)物体の動き追跡のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T12:39:38Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。