論文の概要: Feature-based Event Stereo Visual Odometry
- arxiv url: http://arxiv.org/abs/2107.04921v1
- Date: Sat, 10 Jul 2021 22:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 05:52:01.769516
- Title: Feature-based Event Stereo Visual Odometry
- Title(参考訳): 特徴量に基づくイベントステレオビジュアルオドメトリー
- Authors: Antea Hadviger, Igor Cvi\v{s}i\'c, Ivan Markovi\'c, Sacha
Vra\v{z}i\'c, Ivan Petrovi\'c
- Abstract要約: 本稿では,特徴検出と注意深い特徴管理の整合性に基づく,イベントカメラのための新しいステレオ・ビジュアル・オドメトリー法を提案する。
提案手法を,屋内飛行ドローンが取得したMVSECシーケンスとDSEC屋外運転シーケンスの2つの公開データセットで評価した。
- 参考スコア(独自算出の注目度): 2.7298989068857487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based cameras are biologically inspired sensors that output events,
i.e., asynchronous pixel-wise brightness changes in the scene. Their high
dynamic range and temporal resolution of a microsecond makes them more reliable
than standard cameras in environments of challenging illumination and in
high-speed scenarios, thus developing odometry algorithms based solely on event
cameras offers exciting new possibilities for autonomous systems and robots. In
this paper, we propose a novel stereo visual odometry method for event cameras
based on feature detection and matching with careful feature management, while
pose estimation is done by reprojection error minimization. We evaluate the
performance of the proposed method on two publicly available datasets: MVSEC
sequences captured by an indoor flying drone and DSEC outdoor driving
sequences. MVSEC offers accurate ground truth from motion capture, while for
DSEC, which does not offer ground truth, in order to obtain a reference
trajectory on the standard camera frames we used our SOFT visual odometry, one
of the highest ranking algorithms on the KITTI scoreboards. We compared our
method to the ESVO method, which is the first and still the only stereo event
odometry method, showing on par performance on the MVSEC sequences, while on
the DSEC dataset ESVO, unlike our method, was unable to handle outdoor driving
scenario with default parameters. Furthermore, two important advantages of our
method over ESVO are that it adapts tracking frequency to the asynchronous
event rate and does not require initialization.
- Abstract(参考訳): イベントベースのカメラは生物学的にインスパイアされたセンサーであり、シーン内の非同期画素の明るさ変化を出力する。
ハイダイナミックレンジとマイクロ秒の時間分解能は、照明や高速シナリオに挑戦する環境では標準カメラよりも信頼性が高く、イベントカメラのみに基づいたオドメトリーアルゴリズムの開発は、自律システムやロボットにとってエキサイティングな新しい可能性をもたらす。
本稿では,特徴量検出と注意的特徴管理によるマッチングに基づくイベントカメラのステレオ・ビジュアル・オドメトリ法を提案する。
提案手法は,屋内飛行ドローンが取得したMVSECシーケンスとDSEC屋外運転シーケンスの2つの公開データセット上での性能を評価する。
mvsecはモーションキャプチャによる正確な地中真実を提供するが、dsecは地中真実を示さないが、標準カメラフレームの基準軌道を得るために、キッティスコアボードの最高ランキングアルゴリズムの一つであるソフト・ビジュアル・オドメトリ(soft visual odometry)を使用した。
本手法とESVO法を比較した。この手法はMVSECシークエンスで同等の性能を示すが,DSECデータセットのESVOではデフォルトパラメータで屋外走行シナリオを処理できなかった。
さらに,esvoに対する2つの重要な利点は,追跡周波数を非同期イベントレートに適応させ,初期化を必要としない点である。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - Event-based Stereo Visual Odometry with Native Temporal Resolution via
Continuous-time Gaussian Process Regression [3.4447129363520332]
イベントベースのカメラは、シーン内の個々の視覚的変化をユニークなタイミングでキャプチャする。
視覚計測パイプラインでは、時間的に密接な測定を1つの共通の時間で行うように近似することで、しばしば対処される。
本稿では,グループ化や近似を必要とせず,個々の事象計測時間を直接推定する完全ステレオVOパイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-01T22:57:32Z) - PL-EVIO: Robust Monocular Event-based Visual Inertial Odometry with
Point and Line Features [3.6355269783970394]
イベントカメラは、フレームレートが固定された強度画像の代わりにピクセルレベルの照明変化をキャプチャするモーションアクティベートセンサーである。
本稿では,ロバストで高精度でリアルタイムな単眼イベントベース視覚慣性オドメトリー(VIO)法を提案する。
論文 参考訳(メタデータ) (2022-09-25T06:14:12Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。