論文の概要: CIRCLE: Convolutional Implicit Reconstruction and Completion for
Large-scale Indoor Scene
- arxiv url: http://arxiv.org/abs/2111.12905v1
- Date: Thu, 25 Nov 2021 04:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 23:46:13.567358
- Title: CIRCLE: Convolutional Implicit Reconstruction and Completion for
Large-scale Indoor Scene
- Title(参考訳): CIRCLE : 大規模屋内シーンにおける畳み込み再建と完成
- Authors: Haoxiang Chen, Jiahui Huang, Tai-Jiang Mu, Shi-Min Hu
- Abstract要約: CIRCLEは、局所的な暗黙的符号付き距離関数に基づく大規模シーン補完と幾何学的改善のためのフレームワークである。
これは、局所的な幾何学的詳細とグローバルなシーン構造を共同でモデル化する、エンドツーエンドのスパース畳み込みネットワークであるCircNetに基づいている。
- 参考スコア(独自算出の注目度): 38.83766016080625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present CIRCLE, a framework for large-scale scene completion and geometric
refinement based on local implicit signed distance functions. It is based on an
end-to-end sparse convolutional network, CircNet, that jointly models local
geometric details and global scene structural contexts, allowing it to preserve
fine-grained object detail while recovering missing regions commonly arising in
traditional 3D scene data. A novel differentiable rendering module enables
test-time refinement for better reconstruction quality. Extensive experiments
on both real-world and synthetic datasets show that our concise framework is
efficient and effective, achieving better reconstruction quality than the
closest competitor while being 10-50x faster.
- Abstract(参考訳): 本稿では,局所的な暗黙符号距離関数に基づく大規模シーン補完と幾何学的洗練のためのフレームワークCIRCLEを提案する。
それは、ローカルな幾何学的詳細とグローバルなシーンの構造的コンテキストを共同でモデル化し、従来の3Dシーンデータによくある欠落した領域を復元しながら、きめ細かいオブジェクトの詳細を保存できる、エンドツーエンドのスパース畳み込みネットワークであるCircNetに基づいている。
新たな差別化可能なレンダリングモジュールにより、テスト時間の改善により、再構築品質が向上する。
実世界のデータセットと合成データセットの両方に関する広範囲な実験により、我々の簡潔なフレームワークは効率的かつ効果的であり、最も近い競合相手よりも優れたコンストラクション品質を達成でき、しかも10-50倍高速であることが示された。
関連論文リスト
- Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - Neural Kernel Surface Reconstruction [80.51581494300423]
本稿では,大規模でスパースでノイズの多い点雲から3次元暗示面を再構成する新しい手法を提案する。
我々のアプローチは、最近導入されたNeural Kernel Fields表現に基づいている。
論文 参考訳(メタデータ) (2023-05-31T06:25:18Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - ROAD: Learning an Implicit Recursive Octree Auto-Decoder to Efficiently
Encode 3D Shapes [32.267066838654834]
複雑な3次元形状の大規模データセットを効率よく正確に符号化する新しい暗黙表現を提案する。
暗黙的再帰的Octree Auto-Decoder (ROAD) は階層的に構造化された潜在空間を学習し、圧縮比99%以上で最先端の復元結果を実現する。
論文 参考訳(メタデータ) (2022-12-12T19:09:47Z) - NeuralRecon: Real-Time Coherent 3D Reconstruction from Monocular Video [41.554961144321474]
本研究では,各ビデオフラグメントのTSDFボリュームに代表される局所曲面をニューラルネットワークで順次再構成することを提案する。
学習ベースのTSDF融合モジュールは、ネットワークが以前のフラグメントから機能をフューズするために使用される。
ScanNetと7-Scenesのデータセットの実験により、我々のシステムは精度と速度の両面で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-01T17:59:46Z) - RetrievalFuse: Neural 3D Scene Reconstruction with a Database [34.44425679892233]
トレーニングデータベースからシーンジオメトリを直接活用する新しい手法を紹介します。
まず,シーンデータベースから上位k個のボリュームチャンクを検索して構築した3次元シーンの初期推定値の合成を学習する。
これらの候補は最終シーン生成に洗練され、候補から最も一貫性のある幾何集合を効果的に選択できる注意に基づく改良がなされる。
本研究では,3次元超解像と疎点雲表面再構成のためのデータベースを用いて,神経シーンの再構成を実証する。
論文 参考訳(メタデータ) (2021-03-31T18:00:09Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。