論文の概要: luvHarris: A Practical Corner Detector for Event-cameras
- arxiv url: http://arxiv.org/abs/2105.11443v1
- Date: Mon, 24 May 2021 17:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 16:27:25.332041
- Title: luvHarris: A Practical Corner Detector for Event-cameras
- Title(参考訳): luvHarris:イベントカメラのための実用的なコーナー検出器
- Authors: Arren Glover, Aiko Dinale, Leandro De Souza Rosa, Simeon Bamford, and
Chiara Bartolozzi
- Abstract要約: イベント駆動型コンピュータビジョンがよりアクセスしやすくなってきた。
現在の最先端技術は、実用性を考慮した場合、満足のいく精度かリアルタイムパフォーマンスのいずれかを持っている。
検索イベント・ハリス(luvHarris)と呼ばれるコーナー検出を行う別の方法を提案する。
- 参考スコア(独自算出の注目度): 3.5097082077065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There have been a number of corner detection methods proposed for event
cameras in the last years, since event-driven computer vision has become more
accessible. Current state-of-the-art have either unsatisfactory accuracy or
real-time performance when considered for practical use; random motion using a
live camera in an unconstrained environment. In this paper, we present yet
another method to perform corner detection, dubbed look-up event-Harris
(luvHarris), that employs the Harris algorithm for high accuracy but manages an
improved event throughput. Our method has two major contributions, 1. a novel
"threshold ordinal event-surface" that removes certain tuning parameters and is
well suited for Harris operations, and 2. an implementation of the Harris
algorithm such that the computational load per-event is minimised and
computational heavy convolutions are performed only 'as-fast-as-possible', i.e.
only as computational resources are available. The result is a practical,
real-time, and robust corner detector that runs more than $2.6\times$ the speed
of current state-of-the-art; a necessity when using high-resolution
event-camera in real-time. We explain the considerations taken for the
approach, compare the algorithm to current state-of-the-art in terms of
computational performance and detection accuracy, and discuss the validity of
the proposed approach for event cameras.
- Abstract(参考訳): 過去数年間、イベント駆動型コンピュータビジョンがよりアクセスしやすくなってきたため、イベントカメラにコーナー検出手法が提案されてきた。
現在の最先端技術は、実用性を考慮した場合、満足のいく精度かリアルタイム性能のいずれかであり、制約のない環境でのライブカメラを用いたランダムな動きである。
本稿では,harrisアルゴリズムを高精度に利用するが,イベントスループットが向上したルックアップイベントハリス(luvharris)という,コーナー検出を行う新たな手法を提案する。
本手法は,1.特定の調律パラメータを取り除きハリス演算に適する新しい「threshold ordinal event-surface」,2. 計算負荷を最小化し計算重畳み込みを「as-as-possible」のみ行うハリスアルゴリズムの実装という2つの大きな貢献がある。
計算資源が利用可能である場合のみ。
その結果、実用的でリアルタイムで堅牢なコーナー検出器が、現在の最先端の速度で2.6\times$以上動作し、リアルタイムに高解像度イベントカメラを使用する場合の必要性が高まる。
本稿では,提案手法について考察し,計算性能と検出精度の観点からアルゴリズムを最先端技術と比較し,提案手法の有効性について考察する。
関連論文リスト
- Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - Event Transformer. A sparse-aware solution for efficient event data
processing [9.669942356088377]
Event Transformer(EvT)は、イベントデータプロパティを効果的に活用して、極めて効率的かつ正確なフレームワークである。
EvTは、アクションとジェスチャー認識のためのさまざまなイベントベースのベンチマークで評価される。
結果は、計算リソースを著しく少なくしながら、最先端の精度よりも優れているか同等の精度を示す。
論文 参考訳(メタデータ) (2022-04-07T10:49:17Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - SE-Harris and eSUSAN: Asynchronous Event-Based Corner Detection Using
Megapixel Resolution CeleX-V Camera [9.314068908300285]
イベントカメラは、正確なタイムスタンプでピクセル単位の強度変化の非同期イベントストリームを生成する。
本研究では,従来のsusan(smallest univalue segment assimilating nucleus)アルゴリズムに触発されたコーナー検出アルゴリズムesusanを提案する。
また, 指数減衰に基づく適応正規化を用いて動的事象の局所面を高速に構築するse-harrisコーナー検出器を提案する。
論文 参考訳(メタデータ) (2021-05-02T14:06:28Z) - cMinMax: A Fast Algorithm to Find the Corners of an N-dimensional Convex
Polytope [4.157415305926584]
コーナーは、画像の登録と認識、追跡、SLAM、ロボットパスの検出、2Dまたは3Dオブジェクトの検出と検索に使用される。
提案アルゴリズムは,広く使用されているハリスコーナー検出アルゴリズムと比較して約5倍高速である。
このアルゴリズムはN次元の多面体にも拡張できる。
論文 参考訳(メタデータ) (2020-11-28T00:32:11Z) - Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors [0.9988653233188148]
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
論文 参考訳(メタデータ) (2020-10-29T12:01:33Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。