論文の概要: PlanarSplatting: Accurate Planar Surface Reconstruction in 3 Minutes
- arxiv url: http://arxiv.org/abs/2412.03451v1
- Date: Wed, 04 Dec 2024 16:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:58.595774
- Title: PlanarSplatting: Accurate Planar Surface Reconstruction in 3 Minutes
- Title(参考訳): 平面スプレイティング:正確な平面表面再構成を3分で行う
- Authors: Bin Tan, Rui Yu, Yujun Shen, Nan Xue,
- Abstract要約: PlanarSplattingはマルチビュー屋内画像のための超高速かつ高精度な表面再構成手法である。
PlanarSplattingは3分で室内のシーンを再構築し、幾何学的精度は大幅に向上した。
- 参考スコア(独自算出の注目度): 32.00236197233923
- License:
- Abstract: This paper presents PlanarSplatting, an ultra-fast and accurate surface reconstruction approach for multiview indoor images. We take the 3D planes as the main objective due to their compactness and structural expressiveness in indoor scenes, and develop an explicit optimization framework that learns to fit the expected surface of indoor scenes by splatting the 3D planes into 2.5D depth and normal maps. As our PlanarSplatting operates directly on the 3D plane primitives, it eliminates the dependencies on 2D/3D plane detection and plane matching and tracking for planar surface reconstruction. Furthermore, the essential merits of plane-based representation plus CUDA-based implementation of planar splatting functions, PlanarSplatting reconstructs an indoor scene in 3 minutes while having significantly better geometric accuracy. Thanks to our ultra-fast reconstruction speed, the largest quantitative evaluation on the ScanNet and ScanNet++ datasets over hundreds of scenes clearly demonstrated the advantages of our method. We believe that our accurate and ultrafast planar surface reconstruction method will be applied in the structured data curation for surface reconstruction in the future. The code of our CUDA implementation will be publicly available. Project page: https://icetttb.github.io/PlanarSplatting/
- Abstract(参考訳): マルチビュー屋内画像のための超高速かつ高精度な表面再構成手法であるPlanarSplattingを提案する。
室内シーンにおける3次元平面のコンパクトさと構造表現性から,室内シーンの3次元平面を2.5次元の奥行きと通常の地図に分割することにより,室内シーンの期待面に適合することを学ぶための明示的な最適化フレームワークを開発した。
我々のPlanarSplattingは3次元平面プリミティブ上で直接動作するため、2D/3次元平面検出と平面マッチングと平面表面再構成の追跡に依存しない。
さらに,平面的表現とCUDAに基づく平面スプレイティング機能の実装により,屋内シーンを3分で再構築し,精度が大幅に向上した。
ScanNetとScanNet++のデータセット上で、非常に高速な再構築速度のおかげで、数百のシーンで最大の定量的評価が、我々の方法の利点を明らかに示しました。
我々は, 将来, 表面再構成のための構造化データキュレーションに, 高精度かつ超高速な平面表面再構成法を適用すると信じている。
CUDA実装のコードは公開されます。
プロジェクトページ: https://icetttb.github.io/PlanarSplatting/
関連論文リスト
- MonoPlane: Exploiting Monocular Geometric Cues for Generalizable 3D Plane Reconstruction [37.481945507799594]
本稿では,MonoPlaneという汎用的な3次元平面検出・再構成フレームワークを提案する。
まず、大規模な事前学習ニューラルネットワークを用いて、1つの画像から深度と表面の正常値を得る。
これらの特異な幾何学的手がかりを近接誘導RANSACフレームワークに組み込んで各平面インスタンスに順次適合させる。
論文 参考訳(メタデータ) (2024-11-02T12:15:29Z) - AirPlanes: Accurate Plane Estimation via 3D-Consistent Embeddings [26.845588648999417]
本研究では,3次元画像から平面面を推定する問題に対処する。
本稿では,平面へのクラスタリングにおける幾何を補完する多視点一貫した平面埋め込みを予測する手法を提案する。
我々は、ScanNetV2データセットの広範な評価を通じて、我々の新しい手法が既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-06-13T09:49:31Z) - PlanarNeRF: Online Learning of Planar Primitives with Neural Radiance
Fields [34.99249208739048]
PlanarNeRFは、オンライン学習を通じて密集した3次元平面を検出する新しいフレームワークである。
外観と幾何学の知識を兼ね備えた3次元平面検出を実現する。
平面パラメータを推定するために,軽量な平面適合モジュールを提案する。
論文 参考訳(メタデータ) (2023-12-30T03:48:22Z) - NeuSG: Neural Implicit Surface Reconstruction with 3D Gaussian Splatting
Guidance [59.08521048003009]
本稿では,3次元ガウススプラッティングから高精細な表面を復元する神経暗黙的表面再構成パイプラインを提案する。
3Dガウススプラッティングの利点は、詳細な構造を持つ高密度の点雲を生成することができることである。
我々は3次元ガウスを極端に薄くすることで、表面に近い中心を引っ張るスケール正則化器を導入する。
論文 参考訳(メタデータ) (2023-12-01T07:04:47Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Learning Reconstructability for Drone Aerial Path Planning [51.736344549907265]
本研究では,無人ドローンを用いた大規模3次元都市景観獲得のためのビューとパスプランニングを改善するための,学習に基づく最初の再構成可能性予測器を提案する。
従来の手法とは対照的に,本手法では,一組の視点から3次元都市景観をいかによく再構築するかを明示的に予測するモデルを学習する。
論文 参考訳(メタデータ) (2022-09-21T08:10:26Z) - PlanarRecon: Real-time 3D Plane Detection and Reconstruction from Posed
Monocular Videos [32.286637700503995]
PlanarReconは、提示されたモノクロビデオから3次元平面のグローバルなコヒーレントな検出と再構築のためのフレームワークである。
学習ベースのトラッキングと融合モジュールは、以前のフラグメントから平面をマージして、コヒーレントなグローバルな平面再構成を形成するように設計されている。
実験の結果,提案手法はリアルタイムでありながら,ScanNetデータセット上での最先端のパフォーマンスを実現することがわかった。
論文 参考訳(メタデータ) (2022-06-15T17:59:16Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z) - Dynamic Plane Convolutional Occupancy Networks [4.607145155913717]
本研究では,3次元表面再構成の精度を高めるために,動的平面畳み込み機能ネットワークを提案する。
完全に接続されたネットワークは、オブジェクトやシーンの形状を最もよく記述する平面パラメータを予測することを学ぶ。
提案手法は,ShapeNetの無向点雲と屋内シーンデータセットからの表面再構成において,優れた性能を示す。
論文 参考訳(メタデータ) (2020-11-11T14:24:52Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。