論文の概要: DI-Fusion: Online Implicit 3D Reconstruction with Deep Priors
- arxiv url: http://arxiv.org/abs/2012.05551v2
- Date: Fri, 26 Mar 2021 14:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 19:12:13.911453
- Title: DI-Fusion: Online Implicit 3D Reconstruction with Deep Priors
- Title(参考訳): DI-Fusion: ディープ・プライオリティによるオンラインインプリシティブ3D再構築
- Authors: Jiahui Huang, Shi-Sheng Huang, Haoxuan Song, Shi-Min Hu
- Abstract要約: DI-Fusionは、新しい3D表現に基づいています。
Probabilistic Local Implicit Voxels (PLIVoxs)
PLIVoxは、ディープニューラルネットワークによってパラメータ化されたローカルジオメトリと不確実性の両方を考慮して、シーンの優先度をエンコードする。
最新鋭のカメラ軌道推定精度とマッピング品質を実現したオンライン暗黙の3D再構築が可能です。
- 参考スコア(独自算出の注目度): 37.01774224029594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous online 3D dense reconstruction methods struggle to achieve the
balance between memory storage and surface quality, largely due to the usage of
stagnant underlying geometry representation, such as TSDF (truncated signed
distance functions) or surfels, without any knowledge of the scene priors. In
this paper, we present DI-Fusion (Deep Implicit Fusion), based on a novel 3D
representation, i.e. Probabilistic Local Implicit Voxels (PLIVoxs), for online
3D reconstruction with a commodity RGB-D camera. Our PLIVox encodes scene
priors considering both the local geometry and uncertainty parameterized by a
deep neural network. With such deep priors, we are able to perform online
implicit 3D reconstruction achieving state-of-the-art camera trajectory
estimation accuracy and mapping quality, while achieving better storage
efficiency compared with previous online 3D reconstruction approaches. Our
implementation is available at https://www.github.com/huangjh-pub/di-fusion.
- Abstract(参考訳): 従来のオンライン3D高密度再構成手法は, TSDF (Truncated signed distance function) やウェーバなどの静止した幾何学的表現を用いて, シーンの先行状況を知ることなく, メモリストレージと表面品質のバランスをとるのに苦労していた。
本稿では,新しい3D表現に基づくDI-Fusion(Deep Implicit Fusion)を提案する。
Probabilistic Local Implicit Voxels (PLIVoxs) - オンラインRGB-Dカメラによる3D再構成。
我々のPLIVoxは、深層ニューラルネットワークによってパラメータ化された局所的幾何と不確実性の両方を考慮して、シーン先行を符号化する。
このような深層化により,従来のオンライン3次元再構成手法に比べ,記憶効率の向上を図りつつ,最先端のカメラ軌道推定精度とマッピング品質を達成することができる。
実装はhttps://www.github.com/huangjh-pub/di-fusionで利用可能です。
関連論文リスト
- DoubleTake: Geometry Guided Depth Estimation [17.464549832122714]
RGB画像の列から深度を推定することは、基本的なコンピュータビジョンタスクである。
本稿では,現在のカメラ位置から深度マップとして描画された,ボリューム特徴と先行幾何学のヒントを組み合わせた再構成手法を提案する。
本手法は, オフライン・インクリメンタルな評価シナリオにおいて, 対話的な速度, 最先端の深度推定, および3次元シーンで動作可能であることを示す。
論文 参考訳(メタデータ) (2024-06-26T14:29:05Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z) - SimpleRecon: 3D Reconstruction Without 3D Convolutions [21.952478592241]
本稿では,高品質なマルチビュー深度予測に焦点をあてることによって,単純なオフザシェルフ深度融合による高精度な3次元再構成を実現することを示す。
提案手法は,ScanNetと7シーンの3次元再構成において,深度推定と近接的あるいは良好な3次元再構成のための最先端技術に対する大きなリードを達成している。
論文 参考訳(メタデータ) (2022-08-31T09:46:34Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z) - Atlas: End-to-End 3D Scene Reconstruction from Posed Images [13.154808583020229]
RGB画像の集合からTSDF(truncated signed distance function)を直接回帰することにより,シーンのエンドツーエンドな3D再構成手法を提案する。
2D CNNは、各画像から特徴を独立して抽出し、その特徴をバックプロジェクションし、ボクセルボリュームに蓄積する。
3D CNNは蓄積した特徴を洗練し、TSDF値を予測する。
論文 参考訳(メタデータ) (2020-03-23T17:59:15Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。