論文の概要: Feature-based Event Stereo Visual Odometry
- arxiv url: http://arxiv.org/abs/2107.04921v1
- Date: Sat, 10 Jul 2021 22:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 05:52:01.769516
- Title: Feature-based Event Stereo Visual Odometry
- Title(参考訳): 特徴量に基づくイベントステレオビジュアルオドメトリー
- Authors: Antea Hadviger, Igor Cvi\v{s}i\'c, Ivan Markovi\'c, Sacha
Vra\v{z}i\'c, Ivan Petrovi\'c
- Abstract要約: 本稿では,特徴検出と注意深い特徴管理の整合性に基づく,イベントカメラのための新しいステレオ・ビジュアル・オドメトリー法を提案する。
提案手法を,屋内飛行ドローンが取得したMVSECシーケンスとDSEC屋外運転シーケンスの2つの公開データセットで評価した。
- 参考スコア(独自算出の注目度): 2.7298989068857487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based cameras are biologically inspired sensors that output events,
i.e., asynchronous pixel-wise brightness changes in the scene. Their high
dynamic range and temporal resolution of a microsecond makes them more reliable
than standard cameras in environments of challenging illumination and in
high-speed scenarios, thus developing odometry algorithms based solely on event
cameras offers exciting new possibilities for autonomous systems and robots. In
this paper, we propose a novel stereo visual odometry method for event cameras
based on feature detection and matching with careful feature management, while
pose estimation is done by reprojection error minimization. We evaluate the
performance of the proposed method on two publicly available datasets: MVSEC
sequences captured by an indoor flying drone and DSEC outdoor driving
sequences. MVSEC offers accurate ground truth from motion capture, while for
DSEC, which does not offer ground truth, in order to obtain a reference
trajectory on the standard camera frames we used our SOFT visual odometry, one
of the highest ranking algorithms on the KITTI scoreboards. We compared our
method to the ESVO method, which is the first and still the only stereo event
odometry method, showing on par performance on the MVSEC sequences, while on
the DSEC dataset ESVO, unlike our method, was unable to handle outdoor driving
scenario with default parameters. Furthermore, two important advantages of our
method over ESVO are that it adapts tracking frequency to the asynchronous
event rate and does not require initialization.
- Abstract(参考訳): イベントベースのカメラは生物学的にインスパイアされたセンサーであり、シーン内の非同期画素の明るさ変化を出力する。
ハイダイナミックレンジとマイクロ秒の時間分解能は、照明や高速シナリオに挑戦する環境では標準カメラよりも信頼性が高く、イベントカメラのみに基づいたオドメトリーアルゴリズムの開発は、自律システムやロボットにとってエキサイティングな新しい可能性をもたらす。
本稿では,特徴量検出と注意的特徴管理によるマッチングに基づくイベントカメラのステレオ・ビジュアル・オドメトリ法を提案する。
提案手法は,屋内飛行ドローンが取得したMVSECシーケンスとDSEC屋外運転シーケンスの2つの公開データセット上での性能を評価する。
mvsecはモーションキャプチャによる正確な地中真実を提供するが、dsecは地中真実を示さないが、標準カメラフレームの基準軌道を得るために、キッティスコアボードの最高ランキングアルゴリズムの一つであるソフト・ビジュアル・オドメトリ(soft visual odometry)を使用した。
本手法とESVO法を比較した。この手法はMVSECシークエンスで同等の性能を示すが,DSECデータセットのESVOではデフォルトパラメータで屋外走行シナリオを処理できなかった。
さらに,esvoに対する2つの重要な利点は,追跡周波数を非同期イベントレートに適応させ,初期化を必要としない点である。
関連論文リスト
- Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Video Frame Interpolation with Stereo Event and Intensity Camera [40.07341828127157]
高品質な中間フレームを生成するための新しいステレオイベントベースVFIネットワーク(SE-VFI-Net)を提案する。
我々は,正確な光学的流れと不均一性推定を実現するために,融合した特徴を利用する。
提案するSEVFI-Netは最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-07-17T04:02:00Z) - Event-based Stereo Visual Odometry with Native Temporal Resolution via
Continuous-time Gaussian Process Regression [3.4447129363520332]
イベントベースのカメラは、シーン内の個々の視覚的変化をユニークなタイミングでキャプチャする。
視覚計測パイプラインでは、時間的に密接な測定を1つの共通の時間で行うように近似することで、しばしば対処される。
本稿では,グループ化や近似を必要とせず,個々の事象計測時間を直接推定する完全ステレオVOパイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-01T22:57:32Z) - PL-EVIO: Robust Monocular Event-based Visual Inertial Odometry with
Point and Line Features [3.6355269783970394]
イベントカメラは、フレームレートが固定された強度画像の代わりにピクセルレベルの照明変化をキャプチャするモーションアクティベートセンサーである。
本稿では,ロバストで高精度でリアルタイムな単眼イベントベース視覚慣性オドメトリー(VIO)法を提案する。
論文 参考訳(メタデータ) (2022-09-25T06:14:12Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。