論文の概要: IM360: Large-scale Indoor Mapping with 360 Cameras
- arxiv url: http://arxiv.org/abs/2502.12545v3
- Date: Sun, 28 Sep 2025 17:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.190729
- Title: IM360: Large-scale Indoor Mapping with 360 Cameras
- Title(参考訳): IM360:360度カメラを搭載した大規模屋内マッピング
- Authors: Dongki Jung, Jaehoon Choi, Yonghan Lee, Dinesh Manocha,
- Abstract要約: 大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本稿では,球面カメラモデルとStructure-from-Motion(SfM)パイプラインを融合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
- 参考スコア(独自算出の注目度): 48.99932182976206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel 3D mapping pipeline for large-scale indoor environments. To address the significant challenges in large-scale indoor scenes, such as prevalent occlusions and textureless regions, we propose IM360, a novel approach that leverages the wide field of view of omnidirectional images and integrates the spherical camera model into the Structure-from-Motion (SfM) pipeline. Our SfM utilizes dense matching features specifically designed for 360 images, demonstrating superior capability in image registration. Furthermore, with the aid of mesh-based neural rendering techniques, we introduce a texture optimization method that refines texture maps and accurately captures view-dependent properties by combining diffuse and specular components. We evaluate our pipeline on large-scale indoor scenes, demonstrating its effectiveness in real-world scenarios. In practice, IM360 demonstrates superior performance, achieving a 3.5 PSNR increase in textured mesh reconstruction. We attain state-of-the-art performance in terms of camera localization and registration on Matterport3D and Stanford2D3D.
- Abstract(参考訳): 大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本研究では,全方位画像の広い視野を生かし,球面カメラモデルをSfMパイプラインに統合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
さらに、メッシュベースのニューラルネットワークレンダリング技術を用いて、テクスチャマップを洗練し、拡散成分と特異成分を組み合わせたビュー依存特性を正確にキャプチャするテクスチャ最適化手法を提案する。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
実際、IM360は優れた性能を示し、テクスチャメッシュ再構成における3.5 PSNRの増加を実現している。
我々は、Matterport3DとStanford2D3Dのカメラローカライゼーションと登録に関して、最先端のパフォーマンスを得る。
関連論文リスト
- Seam360GS: Seamless 360° Gaussian Splatting from Real-World Omnidirectional Images [22.213607618728705]
両眼カメラモデルを3次元ガウススプラッティングパイプラインに組み込んだ新しいキャリブレーションフレームワークを提案する。
我々のアプローチは、双眼カメラが生み出す現実的な視覚的アーティファクトをシミュレートするだけでなく、シームレスに描画された360度画像の合成を可能にする。
論文 参考訳(メタデータ) (2025-08-27T17:46:46Z) - OB3D: A New Dataset for Benchmarking Omnidirectional 3D Reconstruction Using Blender [9.234032241605892]
Omnidirectional Blender 3D (OB3D) は、複数の全方位画像から3次元再構成を進めるための新しい合成データセットである。
OB3DはBlender 3Dプロジェクトから生成される多様で複雑な3Dシーンを特徴としている。
論文 参考訳(メタデータ) (2025-05-26T15:25:29Z) - SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
粗いメッシュ上にテクスチャ一貫性のある表面の詳細を補うための3次元幾何学的超解像パイプラインであるSuperCarverを紹介する。
実験により、私たちのSuperCarverは実際のテクスチャの外観によって描写された現実的で表現力のある表面の詳細を生成することができることが示された。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - 3D Gaussian Splatting with Normal Information for Mesh Extraction and Improved Rendering [8.59572577251833]
ガウス関数から推定される符号距離関数の勾配を用いた新しい正規化法を提案する。
我々は、Mip-NeRF360、Tamps and Temples、Deep-Blendingなどのデータセットに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-01-14T18:40:33Z) - Splatter-360: Generalizable 360$^{\circ}$ Gaussian Splatting for Wide-baseline Panoramic Images [52.48351378615057]
textitSplatter-360は、ワイドベースラインパノラマ画像を扱うための、エンドツーエンドの汎用3DGSフレームワークである。
パノラマ画像に固有の歪みを緩和する3D対応複投影エンコーダを提案する。
これにより、堅牢な3D対応機能表現とリアルタイムレンダリングが可能になる。
論文 参考訳(メタデータ) (2024-12-09T06:58:31Z) - 360Recon: An Accurate Reconstruction Method Based on Depth Fusion from 360 Images [10.564434148892362]
360度画像は、従来のピンホールカメラに比べてはるかに広い視野を提供する。
これにより、VR、AR、および関連分野のアプリケーションにとって重要である。
ERP画像のための革新的MVSアルゴリズムである360Reconを提案する。
論文 参考訳(メタデータ) (2024-11-28T12:30:45Z) - MVSBoost: An Efficient Point Cloud-based 3D Reconstruction [4.282795945742752]
拡張現実や仮想現実、医用画像、映画特殊効果など、様々な応用において、効率的で正確な3D再構成が不可欠である。
従来のMulti-View Stereo (MVS) システムはこれらのアプリケーションには基本的だが、暗黙の3次元シーンモデリングは複雑なトポロジや連続面を扱う新しい可能性をもたらした。
論文 参考訳(メタデータ) (2024-06-19T13:02:17Z) - Sp2360: Sparse-view 360 Scene Reconstruction using Cascaded 2D Diffusion Priors [51.36238367193988]
潜時拡散モデル(LDM)を用いた360度3次元シーンのスパースビュー再構成に挑戦する。
SparseSplat360は,未完成の細部を埋めたり,新しいビューをクリーンにするために,インペイントとアーティファクト除去のカスケードを利用する手法である。
提案手法は,9つの入力ビューから360度映像全体を生成する。
論文 参考訳(メタデータ) (2024-05-26T11:01:39Z) - RoGUENeRF: A Robust Geometry-Consistent Universal Enhancer for NeRF [1.828790674925926]
2Dエンハンサーは、いくつかの詳細を回復するために事前訓練することができるが、シーン幾何学には依存しない。
既存の3Dエンハンサーは、近隣のトレーニング画像から、一般化可能な方法で詳細を転送することができる。
両パラダイムの長所を生かしたニューラルレンダリングエンハンサーであるRoGUENeRFを提案する。
論文 参考訳(メタデータ) (2024-03-18T16:11:42Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - VR-NeRF: High-Fidelity Virtualized Walkable Spaces [55.51127858816994]
本稿では,高忠実度キャプチャ,モデル再構成,リアルタイムレンダリングのためのエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2023-11-05T02:03:14Z) - Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - 360Roam: Real-Time Indoor Roaming Using Geometry-Aware 360$^\circ$
Radiance Fields [18.295768486318313]
平滑で没入的なローミング体験を妨げつつ、スパルス360ドルの画像間の仮想ツアーが広く利用されている。
本稿では,局所放射場を適応的に割り当てた幾何認識放射場を用いた新しいアプローチを提案する。
本システムは、位置符号化とコンパクトニューラルネットワークを有効利用して、精度と速度を向上する。
論文 参考訳(メタデータ) (2022-08-04T15:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。