論文の概要: ARCH++: Animation-Ready Clothed Human Reconstruction Revisited
- arxiv url: http://arxiv.org/abs/2108.07845v1
- Date: Tue, 17 Aug 2021 19:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:32:16.718205
- Title: ARCH++: Animation-Ready Clothed Human Reconstruction Revisited
- Title(参考訳): ARCH++:アニメーション対応の人間の再構築
- Authors: Tong He, Yuanlu Xu, Shunsuke Saito, Stefano Soatto, Tony Tung
- Abstract要約: 任意の服装スタイルで3Dアバターを再構成する画像ベースARCH++を提案する。
再建されたアバターは、入力ビューから見える領域と見えない領域の両方において、アニメーションに対応しており、非常にリアルである。
- 参考スコア(独自算出の注目度): 82.83445332309238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ARCH++, an image-based method to reconstruct 3D avatars with
arbitrary clothing styles. Our reconstructed avatars are animation-ready and
highly realistic, in both the visible regions from input views and the unseen
regions. While prior work shows great promise of reconstructing animatable
clothed humans with various topologies, we observe that there exist fundamental
limitations resulting in sub-optimal reconstruction quality. In this paper, we
revisit the major steps of image-based avatar reconstruction and address the
limitations with ARCH++. First, we introduce an end-to-end point based geometry
encoder to better describe the semantics of the underlying 3D human body, in
replacement of previous hand-crafted features. Second, in order to address the
occupancy ambiguity caused by topological changes of clothed humans in the
canonical pose, we propose a co-supervising framework with cross-space
consistency to jointly estimate the occupancy in both the posed and canonical
spaces. Last, we use image-to-image translation networks to further refine
detailed geometry and texture on the reconstructed surface, which improves the
fidelity and consistency across arbitrary viewpoints. In the experiments, we
demonstrate improvements over the state of the art on both public benchmarks
and user studies in reconstruction quality and realism.
- Abstract(参考訳): 任意の服装スタイルで3Dアバターを再構成する画像ベースARCH++を提案する。
再構成されたアバターは、入力ビューから見える領域と見えない領域の両方において、アニメーション対応であり、非常にリアルです。
先行研究は, 様々なトポロジを持つ有人衣服を復元する大きな可能性を示しているが, 基本的限界が存在するため, 準最適復元の質が向上する。
本稿では,画像に基づくアバター再構成の主要なステップを再考し,ARCH++による制限に対処する。
まず,手作りの特徴に代えて,基礎となる3次元人体のセマンティクスをよりよく記述するための,エンド・ツー・エンドの点に基づく幾何エンコーダを提案する。
第2に,標準姿勢における衣服のトポロジ的変化による占有のあいまいさに対処するため,空間間の整合性を考慮した協調監視フレームワークを提案し,姿勢空間と標準空間の両方における占有度を共同で推定する。
最後に,画像から画像への変換ネットワークを用いて,再構成面の詳細な形状とテクスチャを洗練し,任意の視点における忠実性と一貫性を向上させる。
実験では,コンストラクション品質とリアリズムにおける公開ベンチマークとユーザスタディの両方において,最先端の技術の向上を示す。
関連論文リスト
- Crowd3D++: Robust Monocular Crowd Reconstruction with Upright Space [55.77397543011443]
本研究の目的は、カメラパラメータが不明な1枚の画像から、何百人もの人の3Dポーズ、形状、位置を再構築することである。
Crowd3Dは、複雑な3D人物位置決めを、堅牢なカメラと地上推定で2Dピクセル位置決めに変換するために提案されている。
Crowd3D++は、カメラパラメータの影響を排除し、提案した正準アップライト空間と接地認識正規化変換による収穫操作を行う。
論文 参考訳(メタデータ) (2024-11-09T16:49:59Z) - InvertAvatar: Incremental GAN Inversion for Generalized Head Avatars [40.10906393484584]
本稿では,複数フレームからの忠実度向上を目的としたアルゴリズムを用いて,アバター復元性能を向上させる新しいフレームワークを提案する。
本アーキテクチャでは,画素対応画像-画像変換を重要視し,観測空間と標準空間の対応を学習する必要性を緩和する。
提案手法は,1ショットと数ショットのアバターアニメーションタスクにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2023-12-03T18:59:15Z) - SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - AniPixel: Towards Animatable Pixel-Aligned Human Avatar [65.7175527782209]
AniPixelは、アニマタブルで一般化可能なヒトアバター再構成法である。
本研究では, 骨格変形に基づく神経スキンフィールドを提案し, 標的-カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カ
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしている。
論文 参考訳(メタデータ) (2023-02-07T11:04:14Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - Pixel Codec Avatars [99.36561532588831]
Pixel Codec Avatars(PiCA)は、3D人間の顔の深い生成モデルです。
oculus quest 2のモバイルvrヘッドセットでは、同じシーンで5つのアバターがリアルタイムでレンダリングされる。
論文 参考訳(メタデータ) (2021-04-09T23:17:36Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z) - ARCH: Animatable Reconstruction of Clothed Humans [27.849315613277724]
ARCH(Animatable Reconstruction of Clothed Humans)は、モノクロ画像からアニメーション可能な3D衣服を正確に再構築するためのエンドツーエンドのフレームワークである。
ARCHは、単一の制約のないRGB画像から、詳細な3Dリップされたフルボディアバターを生成する、学習されたポーズ認識モデルである。
論文 参考訳(メタデータ) (2020-04-08T14:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。