論文の概要: Learning Deformable Tetrahedral Meshes for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2011.01437v2
- Date: Mon, 23 Nov 2020 19:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:10:25.197633
- Title: Learning Deformable Tetrahedral Meshes for 3D Reconstruction
- Title(参考訳): 3次元再構成のための変形性テトラダラルメッシュの学習
- Authors: Jun Gao, Wenzheng Chen, Tommy Xiang, Clement Fuji Tsang, Alec
Jacobson, Morgan McGuire, Sanja Fidler
- Abstract要約: 学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
- 参考スコア(独自算出の注目度): 78.0514377738632
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D shape representations that accommodate learning-based 3D reconstruction
are an open problem in machine learning and computer graphics. Previous work on
neural 3D reconstruction demonstrated benefits, but also limitations, of point
cloud, voxel, surface mesh, and implicit function representations. We introduce
Deformable Tetrahedral Meshes (DefTet) as a particular parameterization that
utilizes volumetric tetrahedral meshes for the reconstruction problem. Unlike
existing volumetric approaches, DefTet optimizes for both vertex placement and
occupancy, and is differentiable with respect to standard 3D reconstruction
loss functions. It is thus simultaneously high-precision, volumetric, and
amenable to learning-based neural architectures. We show that it can represent
arbitrary, complex topology, is both memory and computationally efficient, and
can produce high-fidelity reconstructions with a significantly smaller grid
size than alternative volumetric approaches. The predicted surfaces are also
inherently defined as tetrahedral meshes, thus do not require post-processing.
We demonstrate that DefTet matches or exceeds both the quality of the previous
best approaches and the performance of the fastest ones. Our approach obtains
high-quality tetrahedral meshes computed directly from noisy point clouds, and
is the first to showcase high-quality 3D tet-mesh results using only a single
image as input. Our project webpage: https://nv-tlabs.github.io/DefTet/
- Abstract(参考訳): 学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラルネットワークの3d再構成に関する以前の研究は、ポイントクラウド、voxel、サーフェスメッシュ、暗黙的な関数表現の利点だけでなく、制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
既存のボリュームアプローチとは異なり、DefTetは頂点配置と占有の両方を最適化し、標準的な3D再構成損失関数に対して微分可能である。
これにより、学習ベースのニューラルアーキテクチャに対して高い精度、容積、および許容できる。
任意の複雑なトポロジーを表現でき、メモリと計算効率を両立し、グリッドサイズが代替のボリュームアプローチよりも大幅に小さい高忠実度再構成を実現できることを示す。
予測された表面は本質的に四面体メッシュとして定義されるため、後処理は不要である。
DefTetは、以前のベストアプローチの品質と最速アプローチのパフォーマンスの両方に一致しているか、超えるかを実証する。
提案手法は,ノイズの多い点群から直接計算される高品質なテトラヘドラルメッシュを取得し,単一の画像のみを入力として,高品質な3Dテトメシュ結果を示す最初の方法である。
プロジェクトのWebページ: https://nv-tlabs.github.io/DefTet/
関連論文リスト
- Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - NeuManifold: Neural Watertight Manifold Reconstruction with Efficient
and High-Quality Rendering Support [45.68296352822415]
マルチビュー入力画像から高品質な水密多様体メッシュを生成する手法を提案する。
提案手法は両世界の利点を組み合わせ, ニューラルネットワークから得られる幾何学と, よりコンパクトな神経テクスチャ表現を最適化する。
論文 参考訳(メタデータ) (2023-05-26T17:59:21Z) - Learning Neural Radiance Fields from Multi-View Geometry [1.1011268090482573]
画像に基づく3次元再構成のために,多視点幾何アルゴリズムとニューラルレージアンス場(NeRF)を組み合わせたMVG-NeRF(MVG-NeRF)というフレームワークを提案する。
NeRFは暗黙の3D表現の分野に革命をもたらした。
論文 参考訳(メタデータ) (2022-10-24T08:53:35Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。