論文の概要: AMB3R: Accurate Feed-forward Metric-scale 3D Reconstruction with Backend
- arxiv url: http://arxiv.org/abs/2511.20343v1
- Date: Tue, 25 Nov 2025 14:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.500723
- Title: AMB3R: Accurate Feed-forward Metric-scale 3D Reconstruction with Backend
- Title(参考訳): AMB3R:バックエンドを用いた正確なフィードフォワード・メトリスケール3D再構成
- Authors: Hengyi Wang, Lourdes Agapito,
- Abstract要約: AMB3Rは、計量スケールで密集した3次元再構成のためのフィードフォワードモデルである。
AMB3Rは運動から非平衡視覚計測(オンライン)や大規模構造へシームレスに拡張可能であることを示す。
- 参考スコア(独自算出の注目度): 18.645700170943975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present AMB3R, a multi-view feed-forward model for dense 3D reconstruction on a metric-scale that addresses diverse 3D vision tasks. The key idea is to leverage a sparse, yet compact, volumetric scene representation as our backend, enabling geometric reasoning with spatial compactness. Although trained solely for multi-view reconstruction, we demonstrate that AMB3R can be seamlessly extended to uncalibrated visual odometry (online) or large-scale structure from motion without the need for task-specific fine-tuning or test-time optimization. Compared to prior pointmap-based models, our approach achieves state-of-the-art performance in camera pose, depth, and metric-scale estimation, 3D reconstruction, and even surpasses optimization-based SLAM and SfM methods with dense reconstruction priors on common benchmarks.
- Abstract(参考訳): 本稿では,多視点フィードフォワードモデルであるAMB3Rを提案する。
鍵となる考え方は、空間的コンパクト性を持った幾何学的推論を可能にするため、スパースでコンパクトなボリュームシーン表現をバックエンドとして活用することである。
AMB3Rは,多視点再構成専用に訓練されているものの,タスク固有の微調整やテストタイム最適化を必要とせず,無補正の視覚計測(オンライン)や大規模構造にシームレスに拡張できることを実証する。
従来のポイントマップモデルと比較して, カメラのポーズ, 深さ, 距離スケールの推定, 3次元再構成における最先端性能を達成し, 一般的なベンチマークに先立って, 最適化に基づくSLAM法やSfM法を超越している。
関連論文リスト
- LARM: A Large Articulated-Object Reconstruction Model [29.66486888001511]
LARMは、スパースビュー画像から3Dの明瞭なオブジェクトを再構成する統合フィードフォワードフレームワークである。
LARMは、ディープマップやパートマスクなどの補助出力を生成し、明示的な3Dメッシュ抽出と関節推定を容易にする。
我々のパイプラインは、密集した監視の必要性を排除し、多様な対象カテゴリにわたる高忠実度再構築をサポートする。
論文 参考訳(メタデータ) (2025-11-14T18:55:27Z) - MoRE: 3D Visual Geometry Reconstruction Meets Mixture-of-Experts [50.37005070020306]
MoREは、Mixture-of-Experts (MoE)アーキテクチャに基づいた、密集した3Dビジュアル基盤モデルである。
MoREは、幾何推定を安定させ、洗練する信頼に基づく深度補正モジュールを組み込んでいる。
高忠実な表面正規予測のために,高密度なセマンティック特徴とグローバルな3Dバックボーン表現を統合する。
論文 参考訳(メタデータ) (2025-10-31T06:54:27Z) - MapAnything: Universal Feed-Forward Metric 3D Reconstruction [63.79151976126576]
MapAnythingは1つ以上の画像を取り込み、カメラの内在性、ポーズ、深さ、部分的な再構築など、任意の幾何学的入力を行う。
そして、メーター3Dシーンの幾何学とカメラを直接補強する。
MapAnythingは、単一のフィードフォワードパスで幅広い3Dビジョンタスクに対処する。
論文 参考訳(メタデータ) (2025-09-16T18:00:14Z) - 3D Reconstruction via Incremental Structure From Motion [1.4999444543328293]
本稿では,幾何推定の整合性およびバンドル調整による反復的改善の効果に着目し,逐次SfMパイプラインの詳細な実装について述べる。
その結果、視覚的に構造化された環境下でのスパース3次元再構成のための信頼性の高い方法として、インクリメンタルSfMの実用性をサポートした。
論文 参考訳(メタデータ) (2025-08-01T18:45:05Z) - GTR: Gaussian Splatting Tracking and Reconstruction of Unknown Objects Based on Appearance and Geometric Complexity [49.31257173003408]
モノクローナルRGBDビデオからの6-DoFオブジェクト追跡と高品質な3D再構成のための新しい手法を提案する。
提案手法は, 高忠実度オブジェクトメッシュを復元する強力な能力を示し, オープンワールド環境における単一センサ3D再構成のための新しい標準を策定する。
論文 参考訳(メタデータ) (2025-05-17T08:46:29Z) - MUSt3R: Multi-view Network for Stereo 3D Reconstruction [11.61182864709518]
本稿では,DUSt3Rのペアから複数のビューへの拡張を提案する。
計算複雑性を低減できる多層メモリ機構でモデルを拡張します。
このフレームワークは、オフラインとオンラインの両方で3D再構成を実行するように設計されているため、SfMとビジュアルSLAMシナリオにシームレスに適用できる。
論文 参考訳(メタデータ) (2025-03-03T15:36:07Z) - FLARE: Feed-forward Geometry, Appearance and Camera Estimation from Uncalibrated Sparse Views [100.45129752375658]
FLAREは、高品質カメラのポーズと3次元幾何を、補正されていないスパースビュー画像から推定するために設計されたフィードフォワードモデルである。
本ソリューションでは,3次元構造を2次元画像平面にマッピングする上で,カメラポーズが重要なブリッジとして機能するケースケード学習パラダイムを特徴とする。
論文 参考訳(メタデータ) (2025-02-17T18:54:05Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Learning to Detect 3D Reflection Symmetry for Single-View Reconstruction [32.14605731030579]
単一のRGB画像からの3D再構成は、コンピュータビジョンにおいて難しい問題である。
従来の手法は通常データ駆動であり、不正確な3次元形状の復元と限定的な一般化能力をもたらす。
本稿では,人造物体によく見られる反射対称性の鏡面を初めて検出し,その対称性の画素内対応を見いだして深度マップを予測する。
論文 参考訳(メタデータ) (2020-06-17T17:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。