論文の概要: Marginalized Bundle Adjustment: Multi-View Camera Pose from Monocular Depth Estimates
- arxiv url: http://arxiv.org/abs/2602.18906v1
- Date: Sat, 21 Feb 2026 17:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.388284
- Title: Marginalized Bundle Adjustment: Multi-View Camera Pose from Monocular Depth Estimates
- Title(参考訳): Marginalized Bundle Adjustment: 単眼深度推定によるマルチビューカメラ
- Authors: Shengjie Zhu, Ahmed Abdelkader, Mark J. Matthews, Xiaoming Liu, Wen-Sheng Chu,
- Abstract要約: MDE深度マップは、SfMとカメラ再配置タスクにおいて、SoTAまたは競合する結果を得るのに十分正確であることを示す。
本手法は,マルチビュー3次元視覚におけるMDEの意義を明らかにする。
- 参考スコア(独自算出の注目度): 19.574697033192436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure-from-Motion (SfM) is a fundamental 3D vision task for recovering camera parameters and scene geometry from multi-view images. While recent deep learning advances enable accurate Monocular Depth Estimation (MDE) from single images without depending on camera motion, integrating MDE into SfM remains a challenge. Unlike conventional triangulated sparse point clouds, MDE produces dense depth maps with significantly higher error variance. Inspired by modern RANSAC estimators, we propose Marginalized Bundle Adjustment (MBA) to mitigate MDE error variance leveraging its density. With MBA, we show that MDE depth maps are sufficiently accurate to yield SoTA or competitive results in SfM and camera relocalization tasks. Through extensive evaluations, we demonstrate consistently robust performance across varying scales, ranging from few-frame setups to large multi-view systems with thousands of images. Our method highlights the significant potential of MDE in multi-view 3D vision.
- Abstract(参考訳): Structure-from-Motion (SfM) は、マルチビュー画像からカメラパラメータとシーン形状を復元するための基本的な3次元視覚タスクである。
近年のディープラーニングの進歩により、カメラの動きに依存しない単一画像からの正確な単眼深度推定(MDE)が可能になったが、MDEをSfMに統合することは依然として困難である。
従来の三角形のスパース点雲とは異なり、MDEは誤差のばらつきが著しく高い密度の深度マップを生成する。
現代のRANSAC推定器に着想を得て,MDE誤差の分散を軽減し,その密度を緩和するMarginalized Bundle Adjustment (MBA)を提案する。
MBAでは、MDE深度マップが十分正確であることを示し、SfMおよびカメラ再配置タスクにおいてSoTAまたは競合する結果が得られることを示した。
広範囲な評価を通じて,数千のイメージを持つ大規模なマルチビューシステムまで,さまざまなスケールで一貫した堅牢な性能を示す。
本手法は,マルチビュー3次元視覚におけるMDEの意義を明らかにする。
関連論文リスト
- StarryGazer: Leveraging Monocular Depth Estimation Models for Domain-Agnostic Single Depth Image Completion [56.28564075246147]
StarryGazerは、単一のスパース深度画像とRGB画像から高密度深度画像を予測するフレームワークである。
我々は、相対深度画像を生成するために、事前訓練されたMDEモデルを用いる。
モデルの精度とロバスト性を改善するために、相対深度マップとRGBイメージを組み込んだ合成ペアを用いて改良ネットワークを訓練する。
論文 参考訳(メタデータ) (2025-12-15T09:56:09Z) - No Pose Estimation? No Problem: Pose-Agnostic and Instance-Aware Test-Time Adaptation for Monocular Depth Estimation [7.436063412302697]
テスト時間(ドメイン)適応(TTA)は、この問題に対処するための説得力があり実践的なアプローチの1つです。
我々は,MDE のための新しい高性能な TTA フレームワーク PITTA を提案する。
提案手法には,MDEのためのポーズに依存しないTTAパラダイムと,インスタンス認識型画像マスキングの2つの革新的戦略が組み込まれている。
論文 参考訳(メタデータ) (2025-11-07T07:55:02Z) - UniDepthV2: Universal Monocular Metric Depth Estimation Made Simpler [62.06785782635153]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthV2を提案する。
UniDepthV2は、追加情報なしで、入力画像から推論時にメートル法3Dポイントを直接予測する。
我々のモデルは擬似球面出力表現を利用し、カメラと深度表現をアンタングル化する。
論文 参考訳(メタデータ) (2025-02-27T14:03:15Z) - MultiDepth: Multi-Sample Priors for Refining Monocular Metric Depth Estimations in Indoor Scenes [0.0]
既存のモデルは、シーン内のオブジェクトの境界周波数やシーンの複雑さといった要因に敏感である。
本稿では,事前学習したMMDEモデルを用いて,画像のサンプルと初期深度マップ予測を併用した解を提案する。
既存の反復深度補正技術と比較して、MultiDepthはアーキテクチャの一部として通常の地図予測を採用していない。
論文 参考訳(メタデータ) (2024-11-01T21:30:51Z) - BetterDepth: Plug-and-Play Diffusion Refiner for Zero-Shot Monocular Depth Estimation [25.047835960649167]
BetterDepthは、事前訓練されたMDEモデルからの予測を深度条件として取り込む条件拡散ベースの精錬機である。
BetterDepthは、さまざまな公開データセットと、その中のシーンで、最先端のゼロショットMDEパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-25T11:16:37Z) - UniDepth: Universal Monocular Metric Depth Estimation [81.80512457953903]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthを提案する。
我々のモデルは擬似球面出力表現を利用しており、カメラと奥行きの表現を歪めている。
ゼロショット方式における10のデータセットの詳細な評価は、一貫してUniDepthの優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-27T18:06:31Z) - SM4Depth: Seamless Monocular Metric Depth Estimation across Multiple Cameras and Scenes by One Model [72.0795843450604]
現在のアプローチでは、さまざまなシーンで一貫した精度を維持する上で、課題に直面している。
これらの手法は、何千万、あるいは数千万のデータからなる広範囲なデータセットに依存している。
本稿では室内と屋外の両方でシームレスに機能するSM$4$Depthについて述べる。
論文 参考訳(メタデータ) (2024-03-13T14:08:25Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。