論文の概要: eCDT: Event Clustering for Simultaneous Feature Detection and Tracking-
- arxiv url: http://arxiv.org/abs/2207.09108v1
- Date: Tue, 19 Jul 2022 07:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:56:15.311126
- Title: eCDT: Event Clustering for Simultaneous Feature Detection and Tracking-
- Title(参考訳): eCDT:同時特徴検出と追跡のためのイベントクラスタリング
- Authors: Sumin Hu, Yeeun Kim, Hyungtae Lim, Alex Junho Lee, Hyun Myung
- Abstract要約: イベントクラスタリングに基づく検出追跡(eCDT)
提案手法は,最先端手法と比較して,特徴追跡年齢が30%向上した。
- 参考スコア(独自算出の注目度): 4.094848360328624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrary to other standard cameras, event cameras interpret the world in an
entirely different manner; as a collection of asynchronous events. Despite
event camera's unique data output, many event feature detection and tracking
algorithms have shown significant progress by making detours to frame-based
data representations. This paper questions the need to do so and proposes a
novel event data-friendly method that achieve simultaneous feature detection
and tracking, called event Clustering-based Detection and Tracking (eCDT). Our
method employs a novel clustering method, named as k-NN Classifier-based
Spatial Clustering and Applications with Noise (KCSCAN), to cluster adjacent
polarity events to retrieve event trajectories.With the aid of a Head and Tail
Descriptor Matching process, event clusters that reappear in a different
polarity are continually tracked, elongating the feature tracks. Thanks to our
clustering approach in spatio-temporal space, our method automatically solves
feature detection and feature tracking simultaneously. Also, eCDT can extract
feature tracks at any frequency with an adjustable time window, which does not
corrupt the high temporal resolution of the original event data. Our method
achieves 30% better feature tracking ages compared with the state-of-the-art
approach while also having a low error approximately equal to it.
- Abstract(参考訳): 他の標準的なカメラとは対照的に、イベントカメラは、非同期イベントのコレクションとして、世界を完全に異なる方法で解釈する。
イベントカメラのユニークなデータ出力にもかかわらず、多くのイベント特徴検出と追跡アルゴリズムはフレームベースのデータ表現に方向転換することで大きな進歩を示している。
本稿では,イベントクラスタリングに基づく検出・追跡(eCDT)と呼ばれる,特徴の検出と追跡を同時に行う新しいイベントデータフレンドリーな手法を提案する。
提案手法は,k-nn分類器に基づく空間クラスタリングと,隣接する極性イベントをクラスタ化してイベント軌跡を検索するアプリケーション(kcscan)を用いた新しいクラスタリング手法である。ヘッドとテールディスクリプタマッチングプロセスにより,異なる極性に再出現するイベントクラスタを継続的に追跡し,特徴トラックを延長する。
時空間におけるクラスタリングアプローチにより,特徴検出と特徴追跡を同時に行う。
また、eCDTは、元のイベントデータの高時間分解能を損なわない調整可能な時間窓で、任意の周波数で特徴トラックを抽出することができる。
提案手法は, 最先端手法と比較して30%の精度で特徴追跡が可能であり, 誤差もほぼ同じである。
関連論文リスト
- TSdetector: Temporal-Spatial Self-correction Collaborative Learning for Colonoscopy Video Detection [19.00902297385955]
本研究では,時間レベルの整合性学習と空間レベルの信頼性学習を統合した時間空間自己補正検出器(TSdetector)を提案する。
公開された3つのポリプビデオデータセットの実験結果は、TSdetectorが最も高いポリプ検出率を達成し、他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-09-30T06:19:29Z) - BlinkTrack: Feature Tracking over 100 FPS via Events and Images [50.98675227695814]
本稿では,RGB画像とイベントデータを統合した新しいフレームワークであるBlinkTrackを提案する。
本手法は,従来のカルマンフィルタを学習ベースのフレームワークに拡張し,イベントおよびイメージの分岐において微分可能なカルマンフィルタを利用する。
実験の結果、BlinkTrackは既存のイベントベースの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-26T15:54:18Z) - Event-ECC: Asynchronous Tracking of Events with Continuous Optimization [1.9446776999250501]
イベントECC (eECC) という,イベントごとの2次元運動ワープを計算するトラッキングアルゴリズムを提案する。
イベント処理の計算負担は、インクリメンタル処理と更新スキームの恩恵を受ける軽量バージョンによって軽減される。
最先端のイベントベース非同期トラッカーにおける追跡精度と特徴年齢の改善について報告する。
論文 参考訳(メタデータ) (2024-09-22T19:03:19Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Asynchronous Blob Tracker for Event Cameras [5.64242497932732]
イベントベースのカメラは、高時間分解能、低レイテンシ、高範囲のために、高速で動く物体を追跡するのに人気がある。
本稿では,生イベントをリアルタイムに非同期に追跡する新しいアルゴリズムを提案する。
本アルゴリズムは, 難解な照明条件下であっても, 高精度なブロブ追跡, 速度推定, 形状推定を実現する。
論文 参考訳(メタデータ) (2023-07-20T05:15:03Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。