論文の概要: An Event-based Algorithm for Simultaneous 6-DOF Camera Pose Tracking and
Mapping
- arxiv url: http://arxiv.org/abs/2301.00618v1
- Date: Mon, 2 Jan 2023 12:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:21:23.920399
- Title: An Event-based Algorithm for Simultaneous 6-DOF Camera Pose Tracking and
Mapping
- Title(参考訳): 6-DOFカメラの同時追跡とマッピングのためのイベントベースアルゴリズム
- Authors: Masoud Dayani Najafabadi and Mohammad Reza Ahmadzadeh
- Abstract要約: イベントカメラは、各画素位置の強度の変化に基づいて、非同期にコンパクトなビジュアルデータを出力することができる。
我々は、その機能を評価するために、イベントのみのパイプラインの慣性バージョンを提案する。
地図推定が信頼できるならば、同等あるいはより正確な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.98482529843496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compared to regular cameras, Dynamic Vision Sensors or Event Cameras can
output compact visual data based on a change in the intensity in each pixel
location asynchronously. In this paper, we study the application of current
image-based SLAM techniques to these novel sensors. To this end, the
information in adaptively selected event windows is processed to form
motion-compensated images. These images are then used to reconstruct the scene
and estimate the 6-DOF pose of the camera. We also propose an inertial version
of the event-only pipeline to assess its capabilities. We compare the results
of different configurations of the proposed algorithm against the ground truth
for sequences of two publicly available event datasets. We also compare the
results of the proposed event-inertial pipeline with the state-of-the-art and
show it can produce comparable or more accurate results provided the map
estimate is reliable.
- Abstract(参考訳): 通常のカメラと比較して、ダイナミックビジョンセンサーやイベントカメラは、各ピクセル位置の強度の変化に基づいて、非同期にコンパクトな視覚データを出力することができる。
本稿では,現在のイメージベースslam技術のセンサへの応用について検討する。
これにより、適応的に選択されたイベントウィンドウ内の情報を処理して、モーション補償画像を形成する。
これらの画像はシーンを再構築し、カメラの6-DOFのポーズを推定するために使用される。
また、その能力を評価するために、イベントのみのパイプラインの慣性バージョンも提案する。
提案アルゴリズムの異なる構成の結果と、2つの公開イベントデータセットのシーケンスの基底真理を比較した。
また,提案するイベント慣性パイプラインの結果を最先端のパイプラインと比較し,地図推定が信頼できる場合に比較し,より正確な結果が得られることを示す。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Ego-motion Estimation Based on Fusion of Images and Events [0.0]
イベントカメラは、イベントストリームを出力するバイオインスパイアされた新しい視覚センサーである。
EASと呼ばれる新しいデータ融合アルゴリズムを提案し、イベントストリームと従来の強度画像とを融合する。
論文 参考訳(メタデータ) (2022-07-12T15:10:28Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - Tracking 6-DoF Object Motion from Events and Frames [0.0]
本研究では,6自由度(6-DoF)物体の動き追跡のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T12:39:38Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based visual place recognition with ensembles of temporal windows [29.6328152991222]
イベントカメラは、低レイテンシと高レンジで連続的なイベントストリームを提供することができるバイオインスパイアされたセンサーである。
我々は,異なる長さの時間ウィンドウを並列に処理する,アンサンブルに基づく新しい手法を開発した。
提案するアンサンブル方式は, 単ウィンドウベースラインや従来のモデルベースアンサンブルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-05-22T05:33:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。