論文の概要: Drivable Avatar Clothing: Faithful Full-Body Telepresence with Dynamic
Clothing Driven by Sparse RGB-D Input
- arxiv url: http://arxiv.org/abs/2310.05917v2
- Date: Wed, 11 Oct 2023 05:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 11:14:25.414727
- Title: Drivable Avatar Clothing: Faithful Full-Body Telepresence with Dynamic
Clothing Driven by Sparse RGB-D Input
- Title(参考訳): 乾燥可能なアバター服-rgb-d入力による動的衣服による忠実な全身テレプレゼンス
- Authors: Donglai Xiang, Fabian Prada, Zhe Cao, Kaiwen Guo, Chenglei Wu, Jessica
Hodgins, Timur Bagautdinov
- Abstract要約: 本研究では,RGB-D入力と体と顔の動きを忠実に駆動できる,動的に動くゆるい衣服を備えたアバターを提案する。
粗い深度入力の粗い衣服形状を効率的に追跡できるニューラルイテレーティブクローズトポイント(N-ICP)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 15.202612528283998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clothing is an important part of human appearance but challenging to model in
photorealistic avatars. In this work we present avatars with dynamically moving
loose clothing that can be faithfully driven by sparse RGB-D inputs as well as
body and face motion. We propose a Neural Iterative Closest Point (N-ICP)
algorithm that can efficiently track the coarse garment shape given sparse
depth input. Given the coarse tracking results, the input RGB-D images are then
remapped to texel-aligned features, which are fed into the drivable avatar
models to faithfully reconstruct appearance details. We evaluate our method
against recent image-driven synthesis baselines, and conduct a comprehensive
analysis of the N-ICP algorithm. We demonstrate that our method can generalize
to a novel testing environment, while preserving the ability to produce
high-fidelity and faithful clothing dynamics and appearance.
- Abstract(参考訳): 衣服は人間の外見の重要な部分であるが、フォトリアリスティックなアバターをモデル化することは困難である。
本研究では,RGB-D入力と体と顔の動きを忠実に駆動できる,動的に動くゆるい衣服を備えたアバターを提案する。
そこで本研究では,粗い衣服の形状を精度良く追跡できるニューラル・イテレーティブ・ニアスポイント(n-icp)アルゴリズムを提案する。
粗い追跡結果から、入力されたRGB-D画像をテクセル整列した特徴に再マップし、乾燥可能なアバターモデルに入力し、外観の詳細を忠実に再構築する。
我々は,最近の画像駆動合成ベースラインに対して提案手法を評価し,N-ICPアルゴリズムの包括的解析を行う。
本手法は,高忠実で忠実な衣料品のダイナミクスと外観を生み出す能力を維持しつつ,新しいテスト環境に一般化できることを実証する。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - ARAH: Animatable Volume Rendering of Articulated Human SDFs [37.48271522183636]
本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T17:56:59Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - PINA: Learning a Personalized Implicit Neural Avatar from a Single RGB-D
Video Sequence [60.46092534331516]
本稿では,短いRGB-Dシーケンスからパーソナライズされたインシシットニューラルアバター(PINA)を学習する方法を提案する。
PINAは完全なスキャンを必要としないし、人間の大規模なデータセットから事前の学習も必要ではない。
ポーズ条件付暗示面と変形場を用いて形状と非剛性変形を学習する手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T15:04:55Z) - HVTR: Hybrid Volumetric-Textural Rendering for Human Avatars [65.82222842213577]
本稿では,任意のポーズから人間の仮想アバターを効率よく,高品質に合成するニューラルレンダリングパイプラインを提案する。
まず,人体表面の高密度UV多様体上での人間の動きを符号化する。
次に、UV多様体上の符号化情報を利用して、3次元体積表現を構成する。
論文 参考訳(メタデータ) (2021-12-19T17:34:15Z) - MetaAvatar: Learning Animatable Clothed Human Models from Few Depth
Images [60.56518548286836]
新規な入力ポーズから現実的な布の変形を生成するには、通常、水密メッシュや高密度フルボディスキャンが入力として必要とされる。
本研究では, 単眼深度画像のみを考慮し, 制御可能なニューラルSDFとして表現された, リアルな衣服付きアバターを迅速に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T17:30:12Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。