論文の概要: SiamEvent: Event-based Object Tracking via Edge-aware Similarity
Learning with Siamese Networks
- arxiv url: http://arxiv.org/abs/2109.13456v1
- Date: Tue, 28 Sep 2021 03:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 01:28:03.721436
- Title: SiamEvent: Event-based Object Tracking via Edge-aware Similarity
Learning with Siamese Networks
- Title(参考訳): SiamEvent: Siamese Networksによるエッジ認識類似性学習によるイベントベースのオブジェクトトラッキング
- Authors: Yujeong Chae, Lin Wang, and Kuk-Jin Yoon
- Abstract要約: イベントカメラは、ピクセルごとの強度変化を認識し、非同期イベントストリームを出力する新しいセンサーである。
エッジ認識類似性学習によるSiamseネットワークを用いたイベントベースのオブジェクト追跡フレームワークSiamEventを提案する。
SiamEventは、現実世界のシーンのベースラインよりも最大15%のパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 29.612633726042134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are novel sensors that perceive the per-pixel intensity changes
and output asynchronous event streams, showing lots of advantages over
traditional cameras, such as high dynamic range (HDR) and no motion blur. It
has been shown that events alone can be used for object tracking by motion
compensation or prediction. However, existing methods assume that the target
always moves and is the stand-alone object. Moreover, they fail to track the
stopped non-independent moving objects on fixed scenes. In this paper, we
propose a novel event-based object tracking framework, called SiamEvent, using
Siamese networks via edge-aware similarity learning. Importantly, to find the
part having the most similar edge structure of target, we propose to correlate
the embedded events at two timestamps to compute the target edge similarity.
The Siamese network enables tracking arbitrary target edge by finding the part
with the highest similarity score. This extends the possibility of event-based
object tracking applied not only for the independent stand-alone moving
objects, but also for various settings of the camera and scenes. In addition,
target edge initialization and edge detector are also proposed to prevent
SiamEvent from the drifting problem. Lastly, we built an open dataset including
various synthetic and real scenes to train and evaluate SiamEvent. Extensive
experiments demonstrate that SiamEvent achieves up to 15% tracking performance
enhancement than the baselines on the real-world scenes and more robust
tracking performance in the challenging HDR and motion blur conditions.
- Abstract(参考訳): イベントカメラは、ピクセルごとの強度変化を認識し、非同期イベントストリームを出力する新しいセンサーであり、ハイダイナミックレンジ(HDR)やモーションブラーなど、従来のカメラよりも多くの利点がある。
イベントのみを動作補償や予測によってオブジェクト追跡に使用できることが示されている。
しかし、既存のメソッドは、ターゲットは常に動き、スタンドアロンのオブジェクトであると仮定する。
さらに、停止した非独立移動物体を固定シーンで追跡することができない。
本稿では,エッジアウェアな類似性学習によるsiameseネットワークを用いた,新たなイベントベースのオブジェクトトラッキングフレームワークであるsiameventを提案する。
重要なことは、最も類似したエッジ構造を持つ部分を見つけるために、2つのタイムスタンプで組込みイベントを相関付け、ターゲットエッジの類似性を計算することを提案する。
siameseネットワークは、最も類似度の高い部分を見つけることで任意の目標エッジを追跡することができる。
これにより、独立したスタンドアロン移動オブジェクトだけでなく、カメラやシーンのさまざまな設定にもイベントベースのオブジェクトトラッキングが適用できるようになる。
また,SiamEventのドリフト問題を防止するため,ターゲットエッジの初期化とエッジ検出器も提案した。
最後に、SiamEventをトレーニングし、評価するために、さまざまな合成および実シーンを含むオープンデータセットを構築しました。
大規模な実験により、SiamEventは現実世界のシーンのベースラインよりも最大15%のトラッキングパフォーマンス向上を実現し、挑戦的なHDRおよびモーションブラー条件下ではより堅牢なトラッキングパフォーマンスを実現している。
関連論文リスト
- Distractor-aware Event-based Tracking [45.07711356111249]
本稿では,シームズネットワークアーキテクチャ(DANet)にトランスフォーマーモジュールを導入するイベントベースのトラッカーを提案する。
本モデルは主にモーション認識ネットワークとターゲット認識ネットワークで構成され,イベントデータから動作キューとオブジェクトの輪郭の両方を同時に活用する。
私たちのDANetは、後処理なしでエンドツーエンドでトレーニングでき、単一のV100上で80FPS以上で実行できます。
論文 参考訳(メタデータ) (2023-10-22T05:50:20Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。