論文の概要: RePoseD: Efficient Relative Pose Estimation With Known Depth Information
- arxiv url: http://arxiv.org/abs/2501.07742v3
- Date: Thu, 03 Apr 2025 12:07:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 17:09:26.780211
- Title: RePoseD: Efficient Relative Pose Estimation With Known Depth Information
- Title(参考訳): RePoseD:未知の深さ情報を用いた効率的な相対的ポース推定
- Authors: Yaqing Ding, Viktor Kocur, Václav Vávra, Zuzana Berger Haladová, Jian Yang, Torsten Sattler, Zuzana Kukelova,
- Abstract要約: 本稿では,2つのカメラの相対的なポーズを,関連する単眼深度に対応する点対応から推定する新しい枠組みを提案する。
新しいソルバは、スピードと精度の点で最先端のディープ・アウェア・ソルバより優れている。
- 参考スコア(独自算出の注目度): 45.40994214285799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in monocular depth estimation methods (MDE) and their improved accuracy open new possibilities for their applications. In this paper, we investigate how monocular depth estimates can be used for relative pose estimation. In particular, we are interested in answering the question whether using MDEs improves results over traditional point-based methods. We propose a novel framework for estimating the relative pose of two cameras from point correspondences with associated monocular depths. Since depth predictions are typically defined up to an unknown scale or even both unknown scale and shift parameters, our solvers jointly estimate the scale or both the scale and shift parameters along with the relative pose. We derive efficient solvers considering different types of depths for three camera configurations: (1) two calibrated cameras, (2) two cameras with an unknown shared focal length, and (3) two cameras with unknown different focal lengths. Our new solvers outperform state-of-the-art depth-aware solvers in terms of speed and accuracy. In extensive real experiments on multiple datasets and with various MDEs, we discuss which depth-aware solvers are preferable in which situation. The code will be made publicly available.
- Abstract(参考訳): 単分子深度推定法 (MDE) の最近の進歩と精度の向上により, 新たな可能性が開けている。
本稿では,相対的なポーズ推定に単眼深度推定をどのように利用できるかを検討する。
特に,MDEの使用が従来のポイントベース手法よりも改善するかどうかという疑問に答えることに興味がある。
本稿では,2つのカメラの相対的なポーズを,関連する単眼深度に対応する点対応から推定する新しい枠組みを提案する。
通常、深さ予測は未知のスケールまたは未知のスケールとシフトパラメータの両方で定義されるので、解法は相対的なポーズとともにスケールとシフトパラメータの両方を共同で推定する。
我々は,(1)2台のキャリブレーションカメラ,(2)共有焦点長の不明な2台のカメラ,(3)焦点長の不明な2台のカメラの3種類のカメラ構成に対して,異なる種類の奥行きを考慮した効率的な解法を導出する。
我々の新しい解法は、スピードと精度で最先端の深度対応解法より優れています。
複数のデータセットおよび様々なMDEに関する広範な実測実験において、どの状況でどの深度対応の解法が望ましいかについて議論する。
コードは公開されます。
関連論文リスト
- Depth Pro: Sharp Monocular Metric Depth in Less Than a Second [45.6690958201871]
ゼロショット距離単眼深度推定のための基礎モデルを提案する。
我々のモデルであるDepth Proは、非並列のシャープネスと高周波の詳細で高分解能深度マップを合成する。
標準GPUで0.3秒で2.25メガピクセルの深度マップを生成する。
論文 参考訳(メタデータ) (2024-10-02T22:42:20Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Versatile Depth Estimator Based on Common Relative Depth Estimation and
Camera-Specific Relative-to-Metric Depth Conversion [36.36012484044768]
本稿では,共通相対深度推定器 (CRDE) と多重相対測度変換器 (R2MC) を組み合わせた多目的深度推定器 (VDE) を提案する。
提案されたVDEは、屋内シーンと屋外シーンの両方を含む多様なシーンに対応でき、カメラ当たりのパラメータの増加は1.12%に過ぎなかった。
実験により、VDEは複数のカメラを効果的かつ効率的にサポートし、従来の単一カメラシナリオで最先端の性能を達成できることを示した。
論文 参考訳(メタデータ) (2023-03-20T10:19:50Z) - DepthP+P: Metric Accurate Monocular Depth Estimation using Planar and
Parallax [0.0]
現在の自己監督型単眼深度推定法は主に、カメラの動きを表す剛体の動きを推定することに基づいている。
本稿では,従来の平面パララックスパラダイムに従えば,メートル法で出力を推定する手法であるDepthP+Pを提案する。
論文 参考訳(メタデータ) (2023-01-05T14:53:21Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - On the role of depth predictions for 3D human pose estimation [0.04199844472131921]
推定深度値とともに2dジョイント位置を入力とし、3d位置をカメラ座標で予測するシステムを構築します。
結果は低次元の入力を受け入れ、リアルタイムシステムに統合されるニューラルネットワークで生成されます。
本システムは市販の2dポーズ検出器と深度マップ予測器と組み合わせて野生での3dポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-03-03T16:51:38Z) - Relative Pose from Deep Learned Depth and a Single Affine Correspondence [37.04516812025321]
本研究では, 深層学習した非メトリック単分子深度とアフィン対応性を組み合わせた新しいアプローチを提案する。
奥行き情報とアフィンの特徴を考慮すると、カメラポーズに対する2つの新しい制約が導出される。
提案した解法は1点RANSACアプローチで利用可能である。
論文 参考訳(メタデータ) (2020-07-20T13:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。