論文の概要: RidgeSfM: Structure from Motion via Robust Pairwise Matching Under Depth
Uncertainty
- arxiv url: http://arxiv.org/abs/2011.10359v1
- Date: Fri, 20 Nov 2020 11:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:49:57.564886
- Title: RidgeSfM: Structure from Motion via Robust Pairwise Matching Under Depth
Uncertainty
- Title(参考訳): RidgeSfM: 深さ不確かさ下でのロバストなペアワイズマッチングによる動きからの構造
- Authors: Benjamin Graham, David Novotny
- Abstract要約: 本研究では,屋内シーンの画像集合に対して,密集深度マップとカメラのポーズを同時に推定することの問題点を考察する。
RidgeSfMは数百のフレームをまとめることができる。
- 参考スコア(独自算出の注目度): 9.480212602202519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of simultaneously estimating a dense depth map and
camera pose for a large set of images of an indoor scene. While classical SfM
pipelines rely on a two-step approach where cameras are first estimated using a
bundle adjustment in order to ground the ensuing multi-view stereo stage, both
our poses and dense reconstructions are a direct output of an altered bundle
adjuster. To this end, we parametrize each depth map with a linear combination
of a limited number of basis "depth-planes" predicted in a monocular fashion by
a deep net. Using a set of high-quality sparse keypoint matches, we optimize
over the per-frame linear combinations of depth planes and camera poses to form
a geometrically consistent cloud of keypoints. Although our bundle adjustment
only considers sparse keypoints, the inferred linear coefficients of the basis
planes immediately give us dense depth maps. RidgeSfM is able to collectively
align hundreds of frames, which is its main advantage over recent memory-heavy
deep alternatives that can align at most 10 frames. Quantitative comparisons
reveal performance superior to a state-of-the-art large-scale SfM pipeline.
- Abstract(参考訳): 本研究では,室内シーンの大規模画像に対して,濃密な深度マップとカメラポーズを同時に推定する問題を考える。
従来のsfmパイプラインは、2段階のアプローチでカメラを最初にバンドル調整を使用して推定し、続くマルチビューステレオステージを接地するが、我々のポーズと濃密な再構築は、修正されたバンドルアジャスタの直接出力である。
この目的のために,各深度マップを,深度ネットによって予測される有限個の基底「深度平面」の線形結合でパラメータ化する。
高品質なスパースキーポイントマッチングを用いて、深度平面とカメラポーズのフレーム単位の線形結合を最適化し、幾何学的に一貫したキーポイントのクラウドを形成する。
我々のバンドル調整はスパースキーポイントのみを考慮するが、基底平面の推論された線形係数は直ちに深度写像を与える。
RidgeSfMは、数百のフレームを集合的にアライメントすることが可能で、これは、少なくとも10フレームをアライメントできる最近のメモリ過剰なディープな代替品に対して、大きな利点である。
定量的比較により、最先端の大規模SfMパイプラインよりも優れた性能を示す。
関連論文リスト
- FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Relative Pose from Deep Learned Depth and a Single Affine Correspondence [37.04516812025321]
本研究では, 深層学習した非メトリック単分子深度とアフィン対応性を組み合わせた新しいアプローチを提案する。
奥行き情報とアフィンの特徴を考慮すると、カメラポーズに対する2つの新しい制約が導出される。
提案した解法は1点RANSACアプローチで利用可能である。
論文 参考訳(メタデータ) (2020-07-20T13:24:28Z) - DeepRelativeFusion: Dense Monocular SLAM using Single-Image Relative
Depth Prediction [4.9188958016378495]
本稿では,一様一貫した3次元構造を復元できる,ディープフュージョンと呼ばれる高密度単分子SLAMシステムを提案する。
視覚的SLAMを用いて、カメラのポーズと奥行きの半深度マップを確実に復元し、それから相対深度予測を用いて半深度マップを密度化し、ポーズグラフを精査する。
我々のシステムは、最先端の高密度SLAMシステムよりも、大規模なマージンによる高密度再構成精度で定量的に性能を向上する。
論文 参考訳(メタデータ) (2020-06-07T05:22:29Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。