論文の概要: 3D Reconstruction via Incremental Structure From Motion
- arxiv url: http://arxiv.org/abs/2508.01019v1
- Date: Fri, 01 Aug 2025 18:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.670322
- Title: 3D Reconstruction via Incremental Structure From Motion
- Title(参考訳): 運動からのインクリメンタル構造による3次元再構成
- Authors: Muhammad Zeeshan, Umer Zaki, Syed Ahmed Pasha, Zaar Khizar,
- Abstract要約: 本稿では,幾何推定の整合性およびバンドル調整による反復的改善の効果に着目し,逐次SfMパイプラインの詳細な実装について述べる。
その結果、視覚的に構造化された環境下でのスパース3次元再構成のための信頼性の高い方法として、インクリメンタルSfMの実用性をサポートした。
- 参考スコア(独自算出の注目度): 1.4999444543328293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D reconstruction from unstructured image collections is a key requirement in applications such as robotics, mapping, and scene understanding. While global Structure from Motion (SfM) techniques rely on full image connectivity and can be sensitive to noise or missing data, incremental SfM offers a more flexible alternative. By progressively incorporating new views into the reconstruction, it enables the system to recover scene structure and camera motion even in sparse or partially overlapping datasets. In this paper, we present a detailed implementation of the incremental SfM pipeline, focusing on the consistency of geometric estimation and the effect of iterative refinement through bundle adjustment. We demonstrate the approach using a real dataset and assess reconstruction quality through reprojection error and camera trajectory coherence. The results support the practical utility of incremental SfM as a reliable method for sparse 3D reconstruction in visually structured environments.
- Abstract(参考訳): 非構造化画像コレクションからの正確な3D再構成は、ロボット工学、マッピング、シーン理解といった応用において重要な要件である。
グローバルなStructure from Motion(SfM)技術は完全なイメージ接続に依存しており、ノイズや欠落したデータに敏感である一方、インクリメンタルなSfMはより柔軟な代替手段を提供する。
再構成に新たなビューを徐々に取り入れることで、スパースデータセットや部分的に重複したデータセットであっても、シーン構造やカメラの動きを復元することができる。
本稿では、幾何推定の整合性およびバンドル調整による反復的改善の効果に着目し、増分SfMパイプラインの詳細な実装について述べる。
提案手法は実際のデータセットを用いて,再投影誤差とカメラ軌道コヒーレンスによる再現性の評価を行う。
その結果、視覚的に構造化された環境下でのスパース3次元再構成のための信頼性の高い方法として、インクリメンタルSfMの実用性をサポートした。
関連論文リスト
- MUSt3R: Multi-view Network for Stereo 3D Reconstruction [11.61182864709518]
本稿では,DUSt3Rのペアから複数のビューへの拡張を提案する。
計算複雑性を低減できる多層メモリ機構でモデルを拡張します。
このフレームワークは、オフラインとオンラインの両方で3D再構成を実行するように設計されているため、SfMとビジュアルSLAMシナリオにシームレスに適用できる。
論文 参考訳(メタデータ) (2025-03-03T15:36:07Z) - Light3R-SfM: Towards Feed-forward Structure-from-Motion [34.47706116389972]
Light3R-SfMは、大規模なStructure-from-Motionを効率的に構築するためのフィードフォワード、エンドツーエンドの学習可能なフレームワークである。
この研究は、データ駆動でフィードフォワードのSfMアプローチの先駆者であり、スケーラブルで正確で効率的な3D再構築への道を開いた。
論文 参考訳(メタデータ) (2025-01-24T20:46:04Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - GTR: Improving Large 3D Reconstruction Models through Geometry and Texture Refinement [51.97726804507328]
マルチビュー画像から3次元メッシュを再構成する手法を提案する。
提案手法は, 変圧器を用いたトリプレーンジェネレータとニューラルレージアンスフィールド(NeRF)モデルを用いた大規模再構成モデルから着想を得たものである。
論文 参考訳(メタデータ) (2024-06-09T05:19:24Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Variable Radiance Field for Real-World Category-Specific Reconstruction from Single Image [25.44715538841181]
単一画像からNeural Radiance Field(NeRF)を使用してカテゴリ固有のオブジェクトを再構成することは、有望だが挑戦的な作業である。
本稿では,カテゴリ固有のオブジェクトを効率的に再構成できる新しいフレームワークである可変放射場(VRF)を提案する。
VRFは、再構築品質と計算効率の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-08T12:12:02Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z) - VIO-Aided Structure from Motion Under Challenging Environments [12.111638631118026]
本稿では,難しい環境下で正確な3次元再構成を行うための,ロバストで効率的なモーションパイプライン構造を提案する。
具体的には,候補画像対の事前幾何配置を考慮し,ミスマッチをフィルタリングする幾何検証手法を提案する。
論文 参考訳(メタデータ) (2021-01-24T06:35:52Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。