論文の概要: Night vision obstacle detection and avoidance based on Bio-Inspired
Vision Sensors
- arxiv url: http://arxiv.org/abs/2010.15509v1
- Date: Thu, 29 Oct 2020 12:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:38:54.264331
- Title: Night vision obstacle detection and avoidance based on Bio-Inspired
Vision Sensors
- Title(参考訳): バイオインスパイアされた視覚センサによる夜間視覚障害の検出と回避
- Authors: Jawad N. Yasin, Sherif A.S. Mohamed, Mohammad-hashem Haghbayan, Jukka
Heikkonen, Hannu Tenhunen, Muhammad Mehboob Yasin, Juha Plosila
- Abstract要約: 我々は、イベントベースのカメラの強力な特性を利用して、低照度環境で障害物検出を行う。
このアルゴリズムは、バックグラウンドアクティビティノイズをフィルタリングし、ロバストなハフ変換技術を用いてオブジェクトを抽出する。
LC-Harrisを用いて抽出した2次元特徴を三角測量することにより、検出対象の深さを算出する。
- 参考スコア(独自算出の注目度): 0.5079840826943617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving towards autonomy, unmanned vehicles rely heavily on state-of-the-art
collision avoidance systems (CAS). However, the detection of obstacles
especially during night-time is still a challenging task since the lighting
conditions are not sufficient for traditional cameras to function properly.
Therefore, we exploit the powerful attributes of event-based cameras to perform
obstacle detection in low lighting conditions. Event cameras trigger events
asynchronously at high output temporal rate with high dynamic range of up to
120 $dB$. The algorithm filters background activity noise and extracts objects
using robust Hough transform technique. The depth of each detected object is
computed by triangulating 2D features extracted utilising LC-Harris. Finally,
asynchronous adaptive collision avoidance (AACA) algorithm is applied for
effective avoidance. Qualitative evaluation is compared using event-camera and
traditional camera.
- Abstract(参考訳): 無人車両は自律化に向けて、最先端の衝突回避システム(CAS)に大きく依存している。
しかし、従来のカメラが適切に機能するには照明条件が十分ではないため、特に夜間の障害物検出は依然として難しい課題である。
そこで,イベントベースカメラの強力な特性を活かし,低照度環境で障害物検出を行う。
イベントカメラは高出力時間レートで非同期にイベントをトリガーし、ダイナミックレンジは最大120ドル(約1万2000円)である。
このアルゴリズムはバックグラウンドアクティビティノイズをフィルタリングし、ロバストなハフ変換技術を用いてオブジェクトを抽出する。
LC-Harrisを用いて抽出した2次元特徴を三角測量することにより、検出対象の深さを算出する。
最後に,非同期適応衝突回避(AACA)アルゴリズムを有効回避に適用する。
質的評価は、イベントカメラと従来のカメラで比較される。
関連論文リスト
- CamLoPA: A Hidden Wireless Camera Localization Framework via Signal Propagation Path Analysis [59.86280992504629]
CamLoPAは、トレーニング不要の無線カメラ検出およびローカライゼーションフレームワークである。
低コストの商用オフ・ザ・シェルフ(COTS)デバイスを使用して、最小限の活動空間制約で運用する。
95.37%のスヌーピングカメラ検出精度と17.23の平均位置誤差を達成する。
論文 参考訳(メタデータ) (2024-09-23T16:23:50Z) - Deep Event-based Object Detection in Autonomous Driving: A Survey [7.197775088663435]
イベントカメラは、低レイテンシ、高ダイナミックレンジ、低消費電力のために、自動運転のための有望なセンサーとして登場した。
本稿では,自律走行におけるイベントデータを用いた物体検出の概要について述べる。
論文 参考訳(メタデータ) (2024-05-07T04:17:04Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Self-supervised Event-based Monocular Depth Estimation using Cross-modal
Consistency [18.288912105820167]
EMoDepth という自己教師型イベントベース単眼深度推定フレームワークを提案する。
EMoDepthは、ピクセル座標内のイベントに整合した強度フレームからのクロスモーダル一貫性を使用して、トレーニングプロセスを制約する。
推論では、単分子深度予測にはイベントのみを使用する。
論文 参考訳(メタデータ) (2024-01-14T07:16:52Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - DOTIE -- Detecting Objects through Temporal Isolation of Events using a
Spiking Architecture [5.340730281227837]
視覚に基づく自律ナビゲーションシステムは障害物を避けるために高速で正確な物体検出アルゴリズムに依存している。
本研究では,イベントに固有の時間的情報を用いて移動物体を効率的に検出する手法を提案する。
我々のアーキテクチャを利用することで、自律ナビゲーションシステムは、オブジェクト検出を行うための最小のレイテンシとエネルギーオーバーヘッドを持つことが示される。
論文 参考訳(メタデータ) (2022-10-03T14:43:11Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Asynchronous Corner Tracking Algorithm based on Lifetime of Events for
DAVIS Cameras [0.9988653233188148]
イベントカメラ、すなわちダイナミックおよびアクティブピクセルビジョンセンサー(DAVIS)はシーンの強度変化を捉え、非同期でイベントストリームを生成する。
このようなカメラの出力速度は、高ダイナミックな環境で毎秒最大1000万イベントに達することができる。
DAVISカメラで捉えたイベントと強度画像の両方を利用した非同期コーナー追跡手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T12:02:40Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。