論文の概要: Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors
- arxiv url: http://arxiv.org/abs/2010.15507v1
- Date: Thu, 29 Oct 2020 12:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:02:27.469436
- Title: Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors
- Title(参考訳): バイオインスパイア視覚センサの動的リソース・アウェア・コーナー検出
- Authors: Sherif A.S. Mohamed, Jawad N. Yasin, Mohammad-hashem Haghbayan,
Antonio Miele, Jukka Heikkonen, Hannu Tenhunen, and Juha Plosila
- Abstract要約: 本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
- 参考スコア(独自算出の注目度): 0.9988653233188148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based cameras are vision devices that transmit only brightness changes
with low latency and ultra-low power consumption. Such characteristics make
event-based cameras attractive in the field of localization and object tracking
in resource-constrained systems. Since the number of generated events in such
cameras is huge, the selection and filtering of the incoming events are
beneficial from both increasing the accuracy of the features and reducing the
computational load. In this paper, we present an algorithm to detect
asynchronous corners from a stream of events in real-time on embedded systems.
The algorithm is called the Three Layer Filtering-Harris or TLF-Harris
algorithm. The algorithm is based on an events' filtering strategy whose
purpose is 1) to increase the accuracy by deliberately eliminating some
incoming events, i.e., noise, and 2) to improve the real-time performance of
the system, i.e., preserving a constant throughput in terms of input events per
second, by discarding unnecessary events with a limited accuracy loss. An
approximation of the Harris algorithm, in turn, is used to exploit its
high-quality detection capability with a low-complexity implementation to
enable seamless real-time performance on embedded computing platforms. The
proposed algorithm is capable of selecting the best corner candidate among
neighbors and achieves an average execution time savings of 59 % compared with
the conventional Harris score. Moreover, our approach outperforms the competing
methods, such as eFAST, eHarris, and FA-Harris, in terms of real-time
performance, and surpasses Arc* in terms of accuracy.
- Abstract(参考訳): イベントベースのカメラは、低レイテンシと超低消費電力で輝度変化のみを送信する視覚デバイスである。
このような特徴により、イベントベースのカメラは、リソース制約されたシステムのローカライゼーションやオブジェクトトラッキングの分野で魅力的なものとなる。
このようなカメラで発生するイベントの数は膨大であるため、入ってくるイベントの選択とフィルタリングは、特徴の精度の向上と計算負荷の低減の両方から有益である。
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
このアルゴリズムはThree Layer Filtering-Harris または TLF-Harris アルゴリズムと呼ばれる。
このアルゴリズムは、目的のイベントのフィルタリング戦略に基づいている。
1)入ってくるイベント、すなわちノイズを意図的に除去して精度を高めること
2)不必要なイベントを少ない精度の損失で破棄することにより、毎秒の入力イベントの点で一定のスループットを保ちながら、システムのリアルタイム性能を向上させる。
Harrisアルゴリズムの近似は、組み込みコンピューティングプラットフォーム上でシームレスなリアルタイムパフォーマンスを実現するために、その高品質な検出能力を低複雑さの実装で活用するために使用される。
提案アルゴリズムは, 近隣住民の最適なコーナー候補を選択することができ, 従来のハリススコアと比較して, 平均実行時間を59パーセント削減できる。
さらに,実時間性能ではefast,eharris,fa-harrisといった競合する手法を上回り,精度ではarc*を上回っている。
関連論文リスト
- Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - DOTIE -- Detecting Objects through Temporal Isolation of Events using a
Spiking Architecture [5.340730281227837]
視覚に基づく自律ナビゲーションシステムは障害物を避けるために高速で正確な物体検出アルゴリズムに依存している。
本研究では,イベントに固有の時間的情報を用いて移動物体を効率的に検出する手法を提案する。
我々のアーキテクチャを利用することで、自律ナビゲーションシステムは、オブジェクト検出を行うための最小のレイテンシとエネルギーオーバーヘッドを持つことが示される。
論文 参考訳(メタデータ) (2022-10-03T14:43:11Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Neuromorphic Camera Denoising using Graph Neural Network-driven
Transformers [3.805262583092311]
ニューロモルフィック・ビジョン(Neuromorphic vision)は、コンピュータビジョンコミュニティのパラダイムシフトを引き起こしたバイオインスパイアされた技術である。
ニューロモルフィックカメラは、かなりの量の計測ノイズに悩まされている。
このノイズは、ニューロモルフィック事象に基づく知覚とナビゲーションアルゴリズムの性能を劣化させる。
論文 参考訳(メタデータ) (2021-12-17T18:57:36Z) - hARMS: A Hardware Acceleration Architecture for Real-Time Event-Based
Optical Flow [0.0]
イベントベースの視覚センサは、視覚シーンの変化に基づいて、時間分解能の高い非同期イベントストリームを生成する。
イベントデータから光の流れを計算するための既存の解は、開口問題により運動の真の方向を捉えることができない。
本稿では,低消費電力な組込みプラットフォーム上での真の流れのリアルタイム計算を可能にするfARMSアルゴリズムのハードウェア実現について述べる。
論文 参考訳(メタデータ) (2021-12-13T16:27:17Z) - luvHarris: A Practical Corner Detector for Event-cameras [3.5097082077065]
イベント駆動型コンピュータビジョンがよりアクセスしやすくなってきた。
現在の最先端技術は、実用性を考慮した場合、満足のいく精度かリアルタイムパフォーマンスのいずれかを持っている。
検索イベント・ハリス(luvHarris)と呼ばれるコーナー検出を行う別の方法を提案する。
論文 参考訳(メタデータ) (2021-05-24T17:54:06Z) - SE-Harris and eSUSAN: Asynchronous Event-Based Corner Detection Using
Megapixel Resolution CeleX-V Camera [9.314068908300285]
イベントカメラは、正確なタイムスタンプでピクセル単位の強度変化の非同期イベントストリームを生成する。
本研究では,従来のsusan(smallest univalue segment assimilating nucleus)アルゴリズムに触発されたコーナー検出アルゴリズムesusanを提案する。
また, 指数減衰に基づく適応正規化を用いて動的事象の局所面を高速に構築するse-harrisコーナー検出器を提案する。
論文 参考訳(メタデータ) (2021-05-02T14:06:28Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。