論文の概要: D$^2$IM-Net: Learning Detail Disentangled Implicit Fields from Single
Images
- arxiv url: http://arxiv.org/abs/2012.06650v2
- Date: Thu, 17 Dec 2020 13:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 02:56:45.348227
- Title: D$^2$IM-Net: Learning Detail Disentangled Implicit Fields from Single
Images
- Title(参考訳): D$^2$IM-Net: 単一画像から詳細な遠方界を学習する
- Authors: Manyi Li, Hao Zhang
- Abstract要約: 本稿では,入力画像から幾何学的詳細を復元する最初の1視点3次元再構成ネットワークを提案する。
私たちの重要なアイデアは、ネットワークを訓練して、2つの機能からなる詳細に区切られた再構築を学ぶことです。
- 参考スコア(独自算出の注目度): 6.121310352120004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first single-view 3D reconstruction network aimed at
recovering geometric details from an input image which encompass both
topological shape structures and surface features. Our key idea is to train the
network to learn a detail disentangled reconstruction consisting of two
functions, one implicit field representing the coarse 3D shape and the other
capturing the details. Given an input image, our network, coined D$^2$IM-Net,
encodes it into global and local features which are respectively fed into two
decoders. The base decoder uses the global features to reconstruct a coarse
implicit field, while the detail decoder reconstructs, from the local features,
two displacement maps, defined over the front and back sides of the captured
object. The final 3D reconstruction is a fusion between the base shape and the
displacement maps, with three losses enforcing the recovery of coarse shape,
overall structure, and surface details via a novel Laplacian term.
- Abstract(参考訳): 地形形状と表面特徴の両方を含む入力画像から幾何学的詳細を復元することを目的とした,最初の単一ビュー3D再構成ネットワークを提案する。
私たちのキーとなるアイデアは、粗い3D形状を表す暗黙のフィールドと細部をキャプチャするフィールドの2つの機能からなる、細部が絡み合った再構築をネットワークに教えることです。
入力画像が与えられた場合、D$^2$IM-Netと呼ばれるネットワークは、これをグローバルとローカルの2つのデコーダにエンコードする。
ベースデコーダは、大域的特徴を用いて、粗い暗黙のフィールドを再構築する一方、詳細デコーダは、局所的な特徴から、捕獲対象の前後に定義された2つの変位マップを再構成する。
最後の3D再構成は、ベース形状と変位マップの融合であり、3つの損失は、新しいラプラシアン項による粗い形状、全体構造、表面の細部を回復させる。
関連論文リスト
- T-Pixel2Mesh: Combining Global and Local Transformer for 3D Mesh Generation from a Single Image [84.08705684778666]
本稿では,P2Mの粗大なアプローチにインスパイアされたトランスフォーマーブーストアーキテクチャT-Pixel2Meshを提案する。
具体的には,大域変換器を用いて局所的な形状を制御し,局所的な幾何学的詳細を洗練させる。
ShapeNetの実験では最先端の性能が実証され,実世界のデータでは一般化能力が示された。
論文 参考訳(メタデータ) (2024-03-20T15:14:22Z) - LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - Pixel-Aligned Non-parametric Hand Mesh Reconstruction [16.62199923065314]
非パラメトリックメッシュ再構成は、最近3Dの手と身体の応用において顕著な進歩を見せている。
本稿では,このマッピングをシンプルでコンパクトなアーキテクチャで構築し,活用することを目的とする。
3つのフェーズからなるハンドメッシュリカバリタスクのためのエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-17T15:53:18Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Capturing Shape Information with Multi-Scale Topological Loss Terms for
3D Reconstruction [7.323706635751351]
本稿では, 連結成分, サイクル, 空隙などの多次元位相特徴を再構成損失に含め, 幾何学的形状情報を補完する手法を提案する。
提案手法は, 3次元体積データから3次元形状データから位相特性を計算し, 最適輸送距離を用いて復元過程を導出する。
SHAPRは2次元顕微鏡画像から個々の細胞の3次元細胞形状を予測するモデルである。
論文 参考訳(メタデータ) (2022-03-03T13:18:21Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z) - DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction [24.903382114775283]
シングルビュー画像から3次元形状を再構成することは、長年にわたる研究課題である。
2次元画像から高品質のディテールリッチな3Dメッシュを生成するディープインプリシト・サーフェス・ネットワークであるdisNを提案する。
我々の知る限りでは、DINは1枚の画像から3次元形状に存在する穴や細い構造などの細部を常にキャプチャする最初の方法である。
論文 参考訳(メタデータ) (2019-05-26T01:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。