論文の概要: IM360: Large-scale Indoor Mapping with 360 Cameras
- arxiv url: http://arxiv.org/abs/2502.12545v3
- Date: Sun, 28 Sep 2025 17:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.190729
- Title: IM360: Large-scale Indoor Mapping with 360 Cameras
- Title(参考訳): IM360:360度カメラを搭載した大規模屋内マッピング
- Authors: Dongki Jung, Jaehoon Choi, Yonghan Lee, Dinesh Manocha,
- Abstract要約: 大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本稿では,球面カメラモデルとStructure-from-Motion(SfM)パイプラインを融合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
- 参考スコア(独自算出の注目度): 48.99932182976206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel 3D mapping pipeline for large-scale indoor environments. To address the significant challenges in large-scale indoor scenes, such as prevalent occlusions and textureless regions, we propose IM360, a novel approach that leverages the wide field of view of omnidirectional images and integrates the spherical camera model into the Structure-from-Motion (SfM) pipeline. Our SfM utilizes dense matching features specifically designed for 360 images, demonstrating superior capability in image registration. Furthermore, with the aid of mesh-based neural rendering techniques, we introduce a texture optimization method that refines texture maps and accurately captures view-dependent properties by combining diffuse and specular components. We evaluate our pipeline on large-scale indoor scenes, demonstrating its effectiveness in real-world scenarios. In practice, IM360 demonstrates superior performance, achieving a 3.5 PSNR increase in textured mesh reconstruction. We attain state-of-the-art performance in terms of camera localization and registration on Matterport3D and Stanford2D3D.
- Abstract(参考訳): 大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本研究では,全方位画像の広い視野を生かし,球面カメラモデルをSfMパイプラインに統合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
さらに、メッシュベースのニューラルネットワークレンダリング技術を用いて、テクスチャマップを洗練し、拡散成分と特異成分を組み合わせたビュー依存特性を正確にキャプチャするテクスチャ最適化手法を提案する。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
実際、IM360は優れた性能を示し、テクスチャメッシュ再構成における3.5 PSNRの増加を実現している。
我々は、Matterport3DとStanford2D3Dのカメラローカライゼーションと登録に関して、最先端のパフォーマンスを得る。
関連論文リスト
- OB3D: A New Dataset for Benchmarking Omnidirectional 3D Reconstruction Using Blender [9.234032241605892]
Omnidirectional Blender 3D (OB3D) は、複数の全方位画像から3次元再構成を進めるための新しい合成データセットである。
OB3DはBlender 3Dプロジェクトから生成される多様で複雑な3Dシーンを特徴としている。
論文 参考訳(メタデータ) (2025-05-26T15:25:29Z) - SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
粗いメッシュ上にテクスチャ一貫性のある表面の詳細を補うための3次元幾何学的超解像パイプラインであるSuperCarverを紹介する。
実験により、私たちのSuperCarverは実際のテクスチャの外観によって描写された現実的で表現力のある表面の詳細を生成することができることが示された。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - 3D Gaussian Splatting with Normal Information for Mesh Extraction and Improved Rendering [8.59572577251833]
ガウス関数から推定される符号距離関数の勾配を用いた新しい正規化法を提案する。
我々は、Mip-NeRF360、Tamps and Temples、Deep-Blendingなどのデータセットに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-01-14T18:40:33Z) - 360Recon: An Accurate Reconstruction Method Based on Depth Fusion from 360 Images [10.564434148892362]
360度画像は、従来のピンホールカメラに比べてはるかに広い視野を提供する。
これにより、VR、AR、および関連分野のアプリケーションにとって重要である。
ERP画像のための革新的MVSアルゴリズムである360Reconを提案する。
論文 参考訳(メタデータ) (2024-11-28T12:30:45Z) - Sp2360: Sparse-view 360 Scene Reconstruction using Cascaded 2D Diffusion Priors [51.36238367193988]
潜時拡散モデル(LDM)を用いた360度3次元シーンのスパースビュー再構成に挑戦する。
SparseSplat360は,未完成の細部を埋めたり,新しいビューをクリーンにするために,インペイントとアーティファクト除去のカスケードを利用する手法である。
提案手法は,9つの入力ビューから360度映像全体を生成する。
論文 参考訳(メタデータ) (2024-05-26T11:01:39Z) - RoGUENeRF: A Robust Geometry-Consistent Universal Enhancer for NeRF [1.828790674925926]
2Dエンハンサーは、いくつかの詳細を回復するために事前訓練することができるが、シーン幾何学には依存しない。
既存の3Dエンハンサーは、近隣のトレーニング画像から、一般化可能な方法で詳細を転送することができる。
両パラダイムの長所を生かしたニューラルレンダリングエンハンサーであるRoGUENeRFを提案する。
論文 参考訳(メタデータ) (2024-03-18T16:11:42Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。