論文の概要: DITTO: Dual and Integrated Latent Topologies for Implicit 3D
Reconstruction
- arxiv url: http://arxiv.org/abs/2403.05005v1
- Date: Fri, 8 Mar 2024 03:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:17:04.995596
- Title: DITTO: Dual and Integrated Latent Topologies for Implicit 3D
Reconstruction
- Title(参考訳): DITTO : インシシット3次元再構成のための2次元・統合型潜伏トポロジー
- Authors: Jaehyeok Shim, Kyungdon Joo
- Abstract要約: ノイズやスパース点の雲から暗黙的な3次元再構成を行うために,新しいDITTO(Double and Integrated Latent Topologies)を提案する。
DITTOは二重潜在エンコーダと統合暗黙デコーダから構成される。
- 参考スコア(独自算出の注目度): 12.02567416148581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel concept of dual and integrated latent topologies (DITTO in
short) for implicit 3D reconstruction from noisy and sparse point clouds. Most
existing methods predominantly focus on single latent type, such as point or
grid latents. In contrast, the proposed DITTO leverages both point and grid
latents (i.e., dual latent) to enhance their strengths, the stability of grid
latents and the detail-rich capability of point latents. Concretely, DITTO
consists of dual latent encoder and integrated implicit decoder. In the dual
latent encoder, a dual latent layer, which is the key module block composing
the encoder, refines both latents in parallel, maintaining their distinct
shapes and enabling recursive interaction. Notably, a newly proposed dynamic
sparse point transformer within the dual latent layer effectively refines point
latents. Then, the integrated implicit decoder systematically combines these
refined latents, achieving high-fidelity 3D reconstruction and surpassing
previous state-of-the-art methods on object- and scene-level datasets,
especially in thin and detailed structures.
- Abstract(参考訳): 本稿では,ノイズとスパースポイント雲からの暗黙的3次元再構成のための,二重および統合的潜在位相(ditto)の新たな概念を提案する。
既存のメソッドのほとんどは、ポイントやグリッドの潜在型など、単一の潜在型に重点を置いている。
これとは対照的に、提案されたディットーは、点潜時と格子潜時の両方を利用して、その強み、格子潜時の安定性、点潜時の詳細リッチな能力を高める。
具体的には、DITTOは二重潜在エンコーダと統合暗黙デコーダから構成される。
二重潜在エンコーダにおいて、エンコーダを構成するキーモジュールブロックである二重潜在層は、両潜在層を並列に精製し、それぞれ異なる形状を維持し、再帰的な相互作用を可能にする。
特に、二重潜伏層内の新しい動的スパース点変換器は、効果的に点潜伏層を洗練させる。
そして、統合型暗黙的デコーダは、これらの洗練された潜在情報を体系的に結合し、高忠実度な3d再構成を実現し、オブジェクトおよびシーンレベルのデータセット、特に細密な構造において、以前の最先端の手法を上回っている。
関連論文リスト
- GaussianBlock: Building Part-Aware Compositional and Editable 3D Scene by Primitives and Gaussians [14.683337059919692]
本稿では,意味的コヒーレントかつ非絡み合いのある表現を可能にする,GaussianBlockと呼ばれる新しい部分認識型合成再構成手法を提案する。
再構成されたシーンは、様々なベンチマークで絡み合っており、構成的でコンパクトであり、シームレスで、直接的で、正確な編集を可能にすることが証明されている。
論文 参考訳(メタデータ) (2024-10-02T13:26:28Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - MV-DeepSDF: Implicit Modeling with Multi-Sweep Point Clouds for 3D
Vehicle Reconstruction in Autonomous Driving [25.088617195439344]
我々は,マルチスウィープ点雲からの最適符号距離関数(SDF)形状表現を推定するMV-DeepSDFと呼ばれる新しいフレームワークを提案する。
2つの実世界の自律走行データセットについて徹底的な実験を行う。
論文 参考訳(メタデータ) (2023-08-21T15:48:15Z) - A Dual-Masked Auto-Encoder for Robust Motion Capture with
Spatial-Temporal Skeletal Token Completion [13.88656793940129]
本稿では, 3次元関節を再構成し, 個々の関節を識別するための適応的, アイデンティティを意識した三角測量モジュールを提案する。
次に,D-MAE(Dual-Masked Auto-Encoder)を提案する。
重大なデータ損失シナリオを扱う上で提案するモデルの能力を実証するために,高精度で挑戦的なモーションキャプチャデータセットに貢献する。
論文 参考訳(メタデータ) (2022-07-15T10:00:43Z) - BNV-Fusion: Dense 3D Reconstruction using Bi-level Neural Volume Fusion [85.24673400250671]
ニューラル・ボリューム・フュージョン (BNV-Fusion) は, ニューラル・暗黙表現とニューラル・レンダリングの最近の進歩を活用して高密度3次元再構成を行う。
新しい深度マップをグローバルな暗黙的表現に漸進的に統合するために、我々は新しい二段階融合戦略を提案する。
提案手法を定量的に定性的に評価し,既存手法よりも有意な改善を示した。
論文 参考訳(メタデータ) (2022-04-03T19:33:09Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。