論文の概要: DOTIE -- Detecting Objects through Temporal Isolation of Events using a
Spiking Architecture
- arxiv url: http://arxiv.org/abs/2210.00975v1
- Date: Mon, 3 Oct 2022 14:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:02:31.393795
- Title: DOTIE -- Detecting Objects through Temporal Isolation of Events using a
Spiking Architecture
- Title(参考訳): DOTIE -- スパイキングアーキテクチャを用いたイベントの時間的分離によるオブジェクトの検出
- Authors: Manish Nagaraj, Chamika Mihiranga Liyanagedera and Kaushik Roy
- Abstract要約: 視覚に基づく自律ナビゲーションシステムは障害物を避けるために高速で正確な物体検出アルゴリズムに依存している。
本研究では,イベントに固有の時間的情報を用いて移動物体を効率的に検出する手法を提案する。
我々のアーキテクチャを利用することで、自律ナビゲーションシステムは、オブジェクト検出を行うための最小のレイテンシとエネルギーオーバーヘッドを持つことが示される。
- 参考スコア(独自算出の注目度): 5.340730281227837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based autonomous navigation systems rely on fast and accurate object
detection algorithms to avoid obstacles. Algorithms and sensors designed for
such systems need to be computationally efficient, due to the limited energy of
the hardware used for deployment. Biologically inspired event cameras are a
good candidate as a vision sensor for such systems due to their speed, energy
efficiency, and robustness to varying lighting conditions. However, traditional
computer vision algorithms fail to work on event-based outputs, as they lack
photometric features such as light intensity and texture. In this work, we
propose a novel technique that utilizes the temporal information inherently
present in the events to efficiently detect moving objects. Our technique
consists of a lightweight spiking neural architecture that is able to separate
events based on the speed of the corresponding objects. These separated events
are then further grouped spatially to determine object boundaries. This method
of object detection is both asynchronous and robust to camera noise. In
addition, it shows good performance in scenarios with events generated by
static objects in the background, where existing event-based algorithms fail.
We show that by utilizing our architecture, autonomous navigation systems can
have minimal latency and energy overheads for performing object detection.
- Abstract(参考訳): 視覚に基づく自律ナビゲーションシステムは障害物を避けるために高速で正確な物体検出アルゴリズムに依存している。
このようなシステム用に設計されたアルゴリズムとセンサーは、配置に使用されるハードウェアのエネルギーが限られているため、計算効率が要求される。
生物学的にインスパイアされたイベントカメラは、その速度、エネルギー効率、そして様々な照明条件に対する堅牢性のために、このようなシステムの視覚センサーとして良い候補である。
しかし、従来のコンピュータビジョンアルゴリズムは、光強度やテクスチャなどの測光機能が欠けているため、イベントベースの出力では動作しない。
本研究では,イベントに固有に存在する時間情報を利用して移動物体を効率的に検出する手法を提案する。
我々の技術は、対応する物体の速度に基づいてイベントを分離できる軽量なスパイクニューラルネットワークアーキテクチャで構成されている。
分離されたイベントはさらに空間的にグループ化され、オブジェクト境界が決定される。
このオブジェクト検出方法は、カメラノイズに対して非同期かつ堅牢である。
さらに、既存のイベントベースのアルゴリズムが失敗する、バックグラウンドで静的オブジェクトによって生成されたイベントのシナリオにおいて、優れたパフォーマンスを示す。
我々のアーキテクチャを利用することで、自律ナビゲーションシステムはオブジェクト検出を行うための最小のレイテンシとエネルギーオーバーヘッドを持つことができる。
関連論文リスト
- Deep Event-based Object Detection in Autonomous Driving: A Survey [7.197775088663435]
イベントカメラは、低レイテンシ、高ダイナミックレンジ、低消費電力のために、自動運転のための有望なセンサーとして登場した。
本稿では,自律走行におけるイベントデータを用いた物体検出の概要について述べる。
論文 参考訳(メタデータ) (2024-05-07T04:17:04Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - A Hybrid Neuromorphic Object Tracking and Classification Framework for
Real-time Systems [5.959466944163293]
本稿では,イベントベースカメラを用いた物体追跡と分類のためのリアルタイムハイブリッドニューロモルフィックフレームワークを提案する。
イベント・バイ・イベント処理の従来のアプローチとは異なり、この作業では混合フレームとイベント・アプローチを使用して高性能な省エネを実現している。
論文 参考訳(メタデータ) (2020-07-21T07:11:27Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。