論文の概要: SimpleRecon: 3D Reconstruction Without 3D Convolutions
- arxiv url: http://arxiv.org/abs/2208.14743v1
- Date: Wed, 31 Aug 2022 09:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:25:29.495509
- Title: SimpleRecon: 3D Reconstruction Without 3D Convolutions
- Title(参考訳): SimpleRecon: 3Dコンボリューションのない3Dレコンストラクション
- Authors: Mohamed Sayed, John Gibson, Jamie Watson, Victor Prisacariu, Michael
Firman, Cl\'ement Godard
- Abstract要約: 本稿では,高品質なマルチビュー深度予測に焦点をあてることによって,単純なオフザシェルフ深度融合による高精度な3次元再構成を実現することを示す。
提案手法は,ScanNetと7シーンの3次元再構成において,深度推定と近接的あるいは良好な3次元再構成のための最先端技術に対する大きなリードを達成している。
- 参考スコア(独自算出の注目度): 21.952478592241
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditionally, 3D indoor scene reconstruction from posed images happens in
two phases: per-image depth estimation, followed by depth merging and surface
reconstruction. Recently, a family of methods have emerged that perform
reconstruction directly in final 3D volumetric feature space. While these
methods have shown impressive reconstruction results, they rely on expensive 3D
convolutional layers, limiting their application in resource-constrained
environments. In this work, we instead go back to the traditional route, and
show how focusing on high quality multi-view depth prediction leads to highly
accurate 3D reconstructions using simple off-the-shelf depth fusion. We propose
a simple state-of-the-art multi-view depth estimator with two main
contributions: 1) a carefully-designed 2D CNN which utilizes strong image
priors alongside a plane-sweep feature volume and geometric losses, combined
with 2) the integration of keyframe and geometric metadata into the cost volume
which allows informed depth plane scoring. Our method achieves a significant
lead over the current state-of-the-art for depth estimation and close or better
for 3D reconstruction on ScanNet and 7-Scenes, yet still allows for online
real-time low-memory reconstruction. Code, models and results are available at
https://nianticlabs.github.io/simplerecon
- Abstract(参考訳): 伝統的に、ポーズ画像からの3次元屋内シーンの再構築は、画像ごとの深度推定と、深度統合と表面再構成の2段階で行われる。
近年,最後の3次元ボリューム特徴空間で直接再構成を行う手法が出現している。
これらの手法は印象的な再構築結果を示しているが、高価な3D畳み込み層に依存しており、リソース制約のある環境での利用を制限する。
本研究は,従来の経路に戻り,高品質な多視点深度予測に焦点を合わせることで,単純なオフザシェルフ深度融合による高精度な3次元再構成を実現することを示す。
本稿では,2つの主な貢献点を持つ簡易な多視点深度推定器を提案する。
1)平面スウィープ特徴量と幾何学的損失とを併用した強画像を用いた注意深く設計された2次元cnn
2)鍵フレームと幾何学メタデータの統合により,情報深度面のスコアリングが可能となる。
提案手法は, ScanNet と 7-Scenes の3次元再構成において, 深度推定と近接的あるいは高精度な3次元再構成を実現する上で, リアルタイムな低メモリ再構成を実現している。
コード、モデル、結果はhttps://nianticlabs.github.io/simplereconで入手できる。
関連論文リスト
- Lightplane: Highly-Scalable Components for Neural 3D Fields [54.59244949629677]
Lightplane RenderとSplatterは2D-3Dマッピングにおけるメモリ使用量を大幅に削減した。
これらのイノベーションは、メモリと計算コストの少ない、はるかに高解像度で高解像度の画像の処理を可能にする。
論文 参考訳(メタデータ) (2024-04-30T17:59:51Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Neural 3D Scene Reconstruction from Multiple 2D Images without 3D
Supervision [41.20504333318276]
平面制約下でのスパース深度を用いてシーンを3次元の監督なしに再構成する新しいニューラル再構成法を提案する。
シーンを表すために,符号付き距離関数場,色場,確率場を導入する。
我々は、これらのフィールドを最適化し、2D画像で識別可能な光線マーキングを監督することでシーンを再構築する。
論文 参考訳(メタデータ) (2023-06-30T13:30:48Z) - CVRecon: Rethinking 3D Geometric Feature Learning For Neural
Reconstruction [12.53249207602695]
本稿では,エンドツーエンドの3Dニューラル再構成フレームワークCVReconを提案する。
コストボリュームにリッチな幾何学的埋め込みを利用して、3次元の幾何学的特徴学習を容易にする。
論文 参考訳(メタデータ) (2023-04-28T05:30:19Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - DI-Fusion: Online Implicit 3D Reconstruction with Deep Priors [37.01774224029594]
DI-Fusionは、新しい3D表現に基づいています。
Probabilistic Local Implicit Voxels (PLIVoxs)
PLIVoxは、ディープニューラルネットワークによってパラメータ化されたローカルジオメトリと不確実性の両方を考慮して、シーンの優先度をエンコードする。
最新鋭のカメラ軌道推定精度とマッピング品質を実現したオンライン暗黙の3D再構築が可能です。
論文 参考訳(メタデータ) (2020-12-10T09:46:35Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - Learning to Detect 3D Reflection Symmetry for Single-View Reconstruction [32.14605731030579]
単一のRGB画像からの3D再構成は、コンピュータビジョンにおいて難しい問題である。
従来の手法は通常データ駆動であり、不正確な3次元形状の復元と限定的な一般化能力をもたらす。
本稿では,人造物体によく見られる反射対称性の鏡面を初めて検出し,その対称性の画素内対応を見いだして深度マップを予測する。
論文 参考訳(メタデータ) (2020-06-17T17:58:59Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。