論文の概要: STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2003.03551v1
- Date: Sat, 7 Mar 2020 11:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 20:07:55.805190
- Title: STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image
- Title(参考訳): STD-Net: 単一画像からの3次元再構成のための構造保存とトポロジ適応変形ネットワーク
- Authors: Aihua Mao, Canglan Dai, Lin Gao, Ying He, Yong-jin Liu
- Abstract要約: 単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 27.885717341244014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D reconstruction from a single view image is a long-standing prob-lem in
computer vision. Various methods based on different shape representations(such
as point cloud or volumetric representations) have been proposed. However,the
3D shape reconstruction with fine details and complex structures are still
chal-lenging and have not yet be solved. Thanks to the recent advance of the
deepshape representations, it becomes promising to learn the structure and
detail rep-resentation using deep neural networks. In this paper, we propose a
novel methodcalled STD-Net to reconstruct the 3D models utilizing the mesh
representationthat is well suitable for characterizing complex structure and
geometry details.To reconstruct complex 3D mesh models with fine details, our
method consists of(1) an auto-encoder network for recovering the structure of
an object with bound-ing box representation from a single image, (2) a
topology-adaptive graph CNNfor updating vertex position for meshes of complex
topology, and (3) an unifiedmesh deformation block that deforms the structural
boxes into structure-awaremeshed models. Experimental results on the images
from ShapeNet show that ourproposed STD-Net has better performance than other
state-of-the-art methods onreconstructing 3D objects with complex structures
and fine geometric details.
- Abstract(参考訳): 単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
異なる形状表現(点雲や体積表現など)に基づく様々な方法が提案されている。
しかし,細部と複雑な構造を持つ3次元形状の復元はいまだにチャルレングであり,まだ解決されていない。
近年のディープシェイプ表現の進歩により、ディープニューラルネットワークを用いて構造と詳細なリセプションを学ぶことが約束される。
In this paper, we propose a novel methodcalled STD-Net to reconstruct the 3D models utilizing the mesh representationthat is well suitable for characterizing complex structure and geometry details.To reconstruct complex 3D mesh models with fine details, our method consists of(1) an auto-encoder network for recovering the structure of an object with bound-ing box representation from a single image, (2) a topology-adaptive graph CNNfor updating vertex position for meshes of complex topology, and (3) an unifiedmesh deformation block that deforms the structural boxes into structure-awaremeshed models.
ShapeNetの画像による実験結果から,より複雑な構造と細かな幾何学的詳細を持つ3Dオブジェクトを再構成する他の最先端手法よりも,我々の提案したSTD-Netの方が優れた性能を示した。
関連論文リスト
- LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。