論文の概要: High-Fidelity Clothed Avatar Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2304.03903v1
- Date: Sat, 8 Apr 2023 04:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 19:00:54.400663
- Title: High-Fidelity Clothed Avatar Reconstruction from a Single Image
- Title(参考訳): 単一画像からの高忠実な衣服アバター再構成
- Authors: Tingting Liao and Xiaomei Zhang and Yuliang Xiu and Hongwei Yi and
Xudong Liu and Guo-Jun Qi and Yong Zhang and Xuan Wang and Xiangyu Zhu and
Zhen Lei
- Abstract要約: 本研究では,1枚の画像から高忠実度布地アバター再構成を実現するための粗大な方法を提案する。
我々は暗黙のモデルを用いて、学習ベースの方法で人の標準空間の一般的な形状を学習する。
提案手法は, 提案空間における非剛性変形を最適化的に推定することにより, 表面の細部を改良する。
- 参考スコア(独自算出の注目度): 73.15939963381906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a framework for efficient 3D clothed avatar
reconstruction. By combining the advantages of the high accuracy of
optimization-based methods and the efficiency of learning-based methods, we
propose a coarse-to-fine way to realize a high-fidelity clothed avatar
reconstruction (CAR) from a single image. At the first stage, we use an
implicit model to learn the general shape in the canonical space of a person in
a learning-based way, and at the second stage, we refine the surface detail by
estimating the non-rigid deformation in the posed space in an optimization way.
A hyper-network is utilized to generate a good initialization so that the
convergence o f the optimization process is greatly accelerated. Extensive
experiments on various datasets show that the proposed CAR successfully
produces high-fidelity avatars for arbitrarily clothed humans in real scenes.
- Abstract(参考訳): 本稿では,効率的な3次元アバター再構築のための枠組みを提案する。
最適化に基づく手法の高精度と学習に基づく手法の効率の利点を組み合わせることで,高忠実度布アバター再構成(CAR)を実現するための粗大な方法を提案する。
第1段階では暗黙のモデルを用いて、学習ベースの方法で人の正準空間の一般的な形状を学習し、第2段階では、ポーズ空間の非剛性変形を最適化的に推定することで表面の細部を洗練する。
ハイパーネットワークを利用して優れた初期化を生成し、最適化プロセスの収束ofを大幅に加速する。
様々なデータセットに対する大規模な実験により、提案したCARは、実際の場面で任意の服装の人間のために、高忠実なアバターを生産することに成功した。
関連論文リスト
- OrientDream: Streamlining Text-to-3D Generation with Explicit Orientation Control [66.03885917320189]
OrientDreamは、テキストプロンプトから効率よくマルチビューで一貫した3D生成のためのカメラ指向条件付きフレームワークである。
本戦略は,2次元テキスト・画像拡散モジュールの事前学習におけるカメラ配向条件付き機能の実装を強調する。
提案手法は,一貫したマルチビュー特性を持つ高品質なNeRFモデルを生成するだけでなく,既存手法よりも最適化速度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-06-14T13:16:18Z) - Adaptive Image Registration: A Hybrid Approach Integrating Deep Learning
and Optimization Functions for Enhanced Precision [13.242184146186974]
本稿では,ディープニューラルネットワークと最適化に基づく画像登録のための単一のフレームワークを提案する。
また, 実験データの最大1.6%の改善と, 同じ推定時間を維持しつつ, 変形場平滑化における1.0%の性能向上を示す。
論文 参考訳(メタデータ) (2023-11-27T02:48:06Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - Efficient Multi-View Inverse Rendering Using a Hybrid Differentiable
Rendering Method [19.330797817738542]
シーンの3次元形状と反射率を効率的に再構成する,新しいハイブリッド微分可能レンダリング手法を提案する。
本手法は, 最先端の手法と同等あるいは高い品質で再現が可能であり, 効率がよい。
論文 参考訳(メタデータ) (2023-08-19T12:48:10Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Riggable 3D Face Reconstruction via In-Network Optimization [58.016067611038046]
本稿では,単眼画像からの3次元顔再構成法を提案する。
表情、ポーズ、照明を含む画像ごとのパーソナライズされた顔リグとパラメータを共同で推定する。
実験により,SOTA復元精度,ロバスト性,一般化能力が得られた。
論文 参考訳(メタデータ) (2021-04-08T03:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。