論文の概要: SE-Harris and eSUSAN: Asynchronous Event-Based Corner Detection Using
Megapixel Resolution CeleX-V Camera
- arxiv url: http://arxiv.org/abs/2105.00480v1
- Date: Sun, 2 May 2021 14:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:02:47.153808
- Title: SE-Harris and eSUSAN: Asynchronous Event-Based Corner Detection Using
Megapixel Resolution CeleX-V Camera
- Title(参考訳): SE-HarrisとeSUSAN:メガピクセル解像度CeleX-Vカメラを用いた非同期イベントベースコーナー検出
- Authors: Jinjian Li, Chuandong Guo, Li Su, Xiangyu Wang, Quan Hu
- Abstract要約: イベントカメラは、正確なタイムスタンプでピクセル単位の強度変化の非同期イベントストリームを生成する。
本研究では,従来のsusan(smallest univalue segment assimilating nucleus)アルゴリズムに触発されたコーナー検出アルゴリズムesusanを提案する。
また, 指数減衰に基づく適応正規化を用いて動的事象の局所面を高速に構築するse-harrisコーナー検出器を提案する。
- 参考スコア(独自算出の注目度): 9.314068908300285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are novel neuromorphic vision sensors with ultrahigh temporal
resolution and low latency, both in the order of microseconds. Instead of image
frames, event cameras generate an asynchronous event stream of per-pixel
intensity changes with precise timestamps. The resulting sparse data structure
impedes applying many conventional computer vision techniques to event streams,
and specific algorithms should be designed to leverage the information provided
by event cameras. We propose a corner detection algorithm, eSUSAN, inspired by
the conventional SUSAN (smallest univalue segment assimilating nucleus)
algorithm for corner detection. The proposed eSUSAN extracts the univalue
segment assimilating nucleus from the circle kernel based on the similarity
across timestamps and distinguishes corner events by the number of pixels in
the nucleus area. Moreover, eSUSAN is fast enough to be applied to CeleX-V, the
event camera with the highest resolution available. Based on eSUSAN, we also
propose the SE-Harris corner detector, which uses adaptive normalization based
on exponential decay to quickly construct a local surface of active events and
the event-based Harris detector to refine the corners identified by eSUSAN. We
evaluated the proposed algorithms on a public dataset and CeleX-V data. Both
eSUSAN and SE-Harris exhibit higher real-time performance than existing
algorithms while maintaining high accuracy and tracking performance.
- Abstract(参考訳): イベントカメラは、超高時間分解能と低レイテンシを備えた、マイクロ秒単位のニューロモルフィックな視覚センサである。
画像フレームの代わりに、イベントカメラは正確なタイムスタンプでピクセル単位の強度変化の非同期イベントストリームを生成する。
結果として得られたスパースデータ構造は、イベントストリームに多くの従来のコンピュータビジョン技術を適用することを妨げ、イベントカメラが提供する情報を活用するために特定のアルゴリズムを設計すべきである。
本研究では,従来のsusan(smallest univalue segment assimilating nucleus)アルゴリズムに触発されたコーナー検出アルゴリズムesusanを提案する。
提案したeSUSANは、タイムスタンプ間の類似性に基づいて、円核から一値セグメント同化核を抽出し、核領域の画素数でコーナーイベントを識別する。
さらに、eSUSANは最高解像度のイベントカメラであるCeleX-Vに適用できるほど高速である。
また,eSUSANに基づいて,指数減衰に基づく適応正規化を用いて活動事象の局所的な表面を迅速に構築するSE-Harris角検出器と,eSUSANによって同定された角を改良するイベントベースハリス検出器を提案する。
提案アルゴリズムを公開データセットとCeleX-Vデータを用いて評価した。
eSUSANとSE-Harrisはどちらも、精度と追跡性能を維持しながら、既存のアルゴリズムよりも高いリアルタイム性能を示す。
関連論文リスト
- SparseFormer: Detecting Objects in HRW Shots via Sparse Vision Transformer [62.11796778482088]
本稿では,近接撮影とHRW撮影のオブジェクト検出のギャップを埋めるために,SparseFormerと呼ばれるモデル非依存のスパース視覚変換器を提案する。
提案されたSparseFormerは、オブジェクトを含む可能性のあるスパース分散ウィンドウを精査するために、注意トークンを選択的に使用する。
2つのHRWベンチマークであるPANDAとDOTA-v1.0の実験により、提案されたSparseFormerは、最先端のアプローチよりも検出精度(最大5.8%)と速度(最大3倍)を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-11T03:21:25Z) - eKalibr: Dynamic Intrinsic Calibration for Event Cameras From First Principles of Events [1.237454174824584]
イベントカメラの固有キャリブレーション手法eKalibrを提案する。
eKalibrは、慎重に設計されたイベントベースのサークルグリッドパターン認識アルゴリズムに基づいている。
パターン抽出と固有キャリブレーションの観点からeKalibrの性能を評価する実験を行った。
論文 参考訳(メタデータ) (2025-01-10T03:41:03Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - How Many Events do You Need? Event-based Visual Place Recognition Using
Sparse But Varying Pixels [29.6328152991222]
イベントカメラ研究の潜在的な応用の1つは、ロボットのローカライゼーションのための視覚的位置認識である。
事象フレームに蓄積した画素位置における事象数に絶対的な差があることが、位置認識タスクに十分であることを示す。
我々は,Brisbane-Event-VPRデータセットに対する提案手法を,新たに提案した屋内QCR-Event-VPRデータセットとともに屋外運転シナリオで評価した。
論文 参考訳(メタデータ) (2022-06-28T00:24:12Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Asynchronous Corner Tracking Algorithm based on Lifetime of Events for
DAVIS Cameras [0.9988653233188148]
イベントカメラ、すなわちダイナミックおよびアクティブピクセルビジョンセンサー(DAVIS)はシーンの強度変化を捉え、非同期でイベントストリームを生成する。
このようなカメラの出力速度は、高ダイナミックな環境で毎秒最大1000万イベントに達することができる。
DAVISカメラで捉えたイベントと強度画像の両方を利用した非同期コーナー追跡手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T12:02:40Z) - Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors [0.9988653233188148]
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
論文 参考訳(メタデータ) (2020-10-29T12:01:33Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - EBBINNOT: A Hardware Efficient Hybrid Event-Frame Tracker for Stationary
Dynamic Vision Sensors [5.674895233111088]
本稿では,静止型ニューロモルフィックセンサによって記録された物体を検知・追跡するための複合イベントフレーム手法を提案する。
静的DVSの背景除去特性を活用するために,フレーム内のイベントの有無を通知するイベントベースバイナリ画像生成を提案する。
静止DVSベースのトラフィック監視ソリューションが、同時に記録されたRGBフレームベースの方法と比較されるのは、これが初めてである。
論文 参考訳(メタデータ) (2020-05-31T03:01:35Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。