論文の概要: Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images
- arxiv url: http://arxiv.org/abs/2008.07760v1
- Date: Tue, 18 Aug 2020 06:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:29:35.356637
- Title: Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images
- Title(参考訳): Pix2Surf:画像から物体のパラメトリック3次元表面モデルを学ぶ
- Authors: Jiahui Lei, Srinath Sridhar, Paul Guerrero, Minhyuk Sung, Niloy Mitra,
Leonidas J. Guibas
- Abstract要約: 1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
- 参考スコア(独自算出の注目度): 64.53227129573293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of learning to generate 3D parametric surface
representations for novel object instances, as seen from one or more views.
Previous work on learning shape reconstruction from multiple views uses
discrete representations such as point clouds or voxels, while continuous
surface generation approaches lack multi-view consistency. We address these
issues by designing neural networks capable of generating high-quality
parametric 3D surfaces which are also consistent between views. Furthermore,
the generated 3D surfaces preserve accurate image pixel to 3D surface point
correspondences, allowing us to lift texture information to reconstruct shapes
with rich geometry and appearance. Our method is supervised and trained on a
public dataset of shapes from common object categories. Quantitative results
indicate that our method significantly outperforms previous work, while
qualitative results demonstrate the high quality of our reconstructions.
- Abstract(参考訳): 1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
複数のビューから形状復元を学ぶ以前の研究では、ポイントクラウドやボクセルのような離散表現を使っているが、連続的な表面生成のアプローチはマルチビューの一貫性を欠いている。
これらの問題に対処するために、ビュー間で一貫した高品質なパラメトリックな3D表面を生成するニューラルネットワークを設計する。
さらに、生成された3d面は、正確な画像画素を3d表面点対応に保存し、テクスチャ情報を持ち上げ、形状や外観を豊かに再現することができる。
本手法は,共通対象カテゴリの形状の公開データセット上で教師あり,訓練を行う。
定量的な結果から,本手法は先行研究よりも有意に優れており,質的評価の結果から高い品質の復元が得られた。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Learning Neural Implicit Representations with Surface Signal
Parameterizations [14.835882967340968]
本稿では,外見データに適した表面パラメータ化を暗黙的に符号化するニューラルネットワークアーキテクチャを提案する。
私たちのモデルは、既存のメッシュベースのデジタルコンテンツと外見データとの互換性が保たれています。
論文 参考訳(メタデータ) (2022-11-01T15:10:58Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Learning 3D Face Reconstruction with a Pose Guidance Network [49.13404714366933]
ポーズ誘導ネットワーク(PGN)を用いた単眼3次元顔再構成学習のための自己指導型学習手法を提案する。
まず,従来のパラメトリックな3次元顔の学習手法におけるポーズ推定のボトルネックを明らかにし,ポーズパラメータの推定に3次元顔のランドマークを活用することを提案する。
我々のデザインしたPGNでは、完全にラベル付けされた3Dランドマークと無制限にラベル付けされた未使用の顔画像で両方の顔から学習できる。
論文 参考訳(メタデータ) (2020-10-09T06:11:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。