論文の概要: Visual Odometry for RGB-D Cameras
- arxiv url: http://arxiv.org/abs/2203.15119v1
- Date: Mon, 28 Mar 2022 21:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 09:53:51.526378
- Title: Visual Odometry for RGB-D Cameras
- Title(参考訳): RGB-Dカメラ用ビジュアルオドメトリー
- Authors: Afonso Fontes, Jose Everardo Bessa Maia
- Abstract要約: 本稿では,静止環境を走行する移動RGB-Dカメラの高速かつ高精度な計測手法を開発した。
提案アルゴリズムは,SURF を特徴抽出器として,RANSAC を用いて結果をフィルタリングし,最小平均角を使って連続するビデオフレーム間の6つのパラメータの剛性変換を推定する。
- 参考スコア(独自算出の注目度): 3.655021726150368
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Visual odometry is the process of estimating the position and orientation of
a camera by analyzing the images associated to it. This paper develops a quick
and accurate approach to visual odometry of a moving RGB-D camera navigating on
a static environment. The proposed algorithm uses SURF (Speeded Up Robust
Features) as feature extractor, RANSAC (Random Sample Consensus) to filter the
results and Minimum Mean Square to estimate the rigid transformation of six
parameters between successive video frames. Data from a Kinect camera were used
in the tests. The results show that this approach is feasible and promising,
surpassing in performance the algorithms ICP (Interactive Closest Point) and
SfM (Structure from Motion) in tests using a publicly available dataset.
- Abstract(参考訳): ビジュアル・オドメトリー(Visual odometry)は、カメラの位置と方向を、それに関連する画像を分析して推定する過程である。
本稿では,静止環境を走行する移動RGB-Dカメラの高速かつ高精度な計測手法を開発した。
提案アルゴリズムは,SURF (Speeded Up Robust Features) を特徴抽出器として,RANSAC (Random Sample Consensus) を用いて結果と最小平均角をフィルタリングし,連続するビデオフレーム間の6つのパラメータの剛性変換を推定する。
kinectカメラのデータはテストで使用された。
その結果、このアプローチは実現可能で有望であり、公開データセットを使用したテストにおいて、ICP(Interactive Closest Point)とSfM(Structure from Motion)のアルゴリズムの性能を上回ります。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - IMU-Aided Event-based Stereo Visual Odometry [7.280676899773076]
我々は、精度と効率の点で、以前のダイレクトパイプラインの textitEvent ベースの Stereo Visual Odometry を改善しました。
マッピング操作を高速化するために,イベントの局所的ダイナミクスに応じたエッジピクセルサンプリングの効率的な戦略を提案する。
この分野での今後の研究のためのオープンソースソフトウェアとして、パイプラインをリリースします。
論文 参考訳(メタデータ) (2024-05-07T07:19:25Z) - Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
視覚ジャイロスコープは、画像を通してカメラの回転を推定する。
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
本稿では,効率的なマルチマスク・フィルタ回転エステータと学習に基づく最適化を組み合わせた,新しい視覚ジャイロスコープを導入することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - U-ARE-ME: Uncertainty-Aware Rotation Estimation in Manhattan Environments [18.534567960292403]
本稿では、未校正RGB画像からの不確実性とともに、カメラ回転を推定するアルゴリズムであるU-ARE-MEを提案する。
実験の結果,U-ARE-MEはRGB-D法と互換性があり,特徴量ベースのSLAM法よりも頑健であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T19:14:28Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - A Combined Approach Toward Consistent Reconstructions of Indoor Spaces
Based on 6D RGB-D Odometry and KinectFusion [7.503338065129185]
キーポイント抽出により連続したRGB-Dフレーム間の相対的なカメラポーズを求める6次元RGB-Dオドメトリー手法を提案する。
推定されたポーズを、フレーム間相対的なポーズを微調整するKinectFusionアルゴリズムに入力する。
提案アルゴリズムは,ポストプロセッシングのステップを使わずに,利用可能なポリゴンメッシュ(3次元仮想世界を作成するのに非常に適している)を出力する。
論文 参考訳(メタデータ) (2022-12-25T22:52:25Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Moving object detection for visual odometry in a dynamic environment
based on occlusion accumulation [31.143322364794894]
RGB-D画像を用いた移動物体検出アルゴリズムを提案する。
提案アルゴリズムは,背景モデルの推定を必要としない。
二乗回帰重みを持つVO法として高密度視覚計測(DVO)を用いる。
論文 参考訳(メタデータ) (2020-09-18T11:01:46Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。