論文の概要: eCDT: Event Clustering for Simultaneous Feature Detection and Tracking-
- arxiv url: http://arxiv.org/abs/2207.09108v1
- Date: Tue, 19 Jul 2022 07:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:56:15.311126
- Title: eCDT: Event Clustering for Simultaneous Feature Detection and Tracking-
- Title(参考訳): eCDT:同時特徴検出と追跡のためのイベントクラスタリング
- Authors: Sumin Hu, Yeeun Kim, Hyungtae Lim, Alex Junho Lee, Hyun Myung
- Abstract要約: イベントクラスタリングに基づく検出追跡(eCDT)
提案手法は,最先端手法と比較して,特徴追跡年齢が30%向上した。
- 参考スコア(独自算出の注目度): 4.094848360328624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrary to other standard cameras, event cameras interpret the world in an
entirely different manner; as a collection of asynchronous events. Despite
event camera's unique data output, many event feature detection and tracking
algorithms have shown significant progress by making detours to frame-based
data representations. This paper questions the need to do so and proposes a
novel event data-friendly method that achieve simultaneous feature detection
and tracking, called event Clustering-based Detection and Tracking (eCDT). Our
method employs a novel clustering method, named as k-NN Classifier-based
Spatial Clustering and Applications with Noise (KCSCAN), to cluster adjacent
polarity events to retrieve event trajectories.With the aid of a Head and Tail
Descriptor Matching process, event clusters that reappear in a different
polarity are continually tracked, elongating the feature tracks. Thanks to our
clustering approach in spatio-temporal space, our method automatically solves
feature detection and feature tracking simultaneously. Also, eCDT can extract
feature tracks at any frequency with an adjustable time window, which does not
corrupt the high temporal resolution of the original event data. Our method
achieves 30% better feature tracking ages compared with the state-of-the-art
approach while also having a low error approximately equal to it.
- Abstract(参考訳): 他の標準的なカメラとは対照的に、イベントカメラは、非同期イベントのコレクションとして、世界を完全に異なる方法で解釈する。
イベントカメラのユニークなデータ出力にもかかわらず、多くのイベント特徴検出と追跡アルゴリズムはフレームベースのデータ表現に方向転換することで大きな進歩を示している。
本稿では,イベントクラスタリングに基づく検出・追跡(eCDT)と呼ばれる,特徴の検出と追跡を同時に行う新しいイベントデータフレンドリーな手法を提案する。
提案手法は,k-nn分類器に基づく空間クラスタリングと,隣接する極性イベントをクラスタ化してイベント軌跡を検索するアプリケーション(kcscan)を用いた新しいクラスタリング手法である。ヘッドとテールディスクリプタマッチングプロセスにより,異なる極性に再出現するイベントクラスタを継続的に追跡し,特徴トラックを延長する。
時空間におけるクラスタリングアプローチにより,特徴検出と特徴追跡を同時に行う。
また、eCDTは、元のイベントデータの高時間分解能を損なわない調整可能な時間窓で、任意の周波数で特徴トラックを抽出することができる。
提案手法は, 最先端手法と比較して30%の精度で特徴追跡が可能であり, 誤差もほぼ同じである。
関連論文リスト
- Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network [1.9515859963221267]
本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T02:51:47Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Event Blob Tracking: An Asynchronous Real-Time Algorithm [14.312736839139417]
本稿では,生イベントをリアルタイムに非同期に追跡する新しいアルゴリズムを提案する。
本アルゴリズムは,難解な照明条件下であっても,高精度なトラッキングとイベントブロブ形状推定を実現する。
フィルタ出力は、時間対接触や範囲推定などの二次情報を導出するのに使用することができる。
論文 参考訳(メタデータ) (2023-07-20T05:15:03Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Spatio-Temporal Point Process for Multiple Object Tracking [30.041104276095624]
多重オブジェクト追跡(MOT)は、連続するフレーム間の検出対象の関係をモデル化し、それらを異なる軌道にマージすることに焦点を当てている。
本稿では,物体を軌道に関連付ける前に,ノイズを効果的に予測し,マスクアウトし,検出結果を混乱させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-05T18:14:08Z) - Spatiotemporal k-means [63.230991774875044]
時空間クラスタリングは、人間の監督なしに動く物体のパターンや傾向を効率的に発見する必要性に対処する。
データクラスタ内のマルチテンポラリな関係を解析できるSTKMを提案する。
STKMは,特に低データ領域において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-10T04:40:31Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Real-time Detection of Clustered Events in Video-imaging data with
Applications to Additive Manufacturing [9.018291036304941]
本稿では,映像データにおける異常検出のための統合時間分解と回帰手法を提案する。
本手法は, 金属添加物製造プロセスにおいて, 局所過熱現象(ホットスポット)を検出し, 検出するために, 映像データの解析に応用した。
論文 参考訳(メタデータ) (2020-04-23T05:32:13Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。