論文の概要: NoPo-Avatar: Generalizable and Animatable Avatars from Sparse Inputs without Human Poses
- arxiv url: http://arxiv.org/abs/2511.16673v1
- Date: Thu, 20 Nov 2025 18:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.818352
- Title: NoPo-Avatar: Generalizable and Animatable Avatars from Sparse Inputs without Human Poses
- Title(参考訳): NoPo-Avatar:人間性のないスパース入力からの一般化可能でアニマタブルなアバター
- Authors: Jing Wen, Alexander G. Schwing, Shenlong Wang,
- Abstract要約: 我々は,1枚または1枚のスパース画像からアニマタブルな3次元アバターを回収する作業に取り組む。
ポーズ依存再建は, ポーズ推定がノイズの多い場合, 結果を著しく劣化させることを示す。
ポーズ入力なしで画像のみからアバターを再構成するNoPo-Avatarを導入する。
- 参考スコア(独自算出の注目度): 94.67451270421323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the task of recovering an animatable 3D human avatar from a single or a sparse set of images. For this task, beyond a set of images, many prior state-of-the-art methods use accurate "ground-truth" camera poses and human poses as input to guide reconstruction at test-time. We show that pose-dependent reconstruction degrades results significantly if pose estimates are noisy. To overcome this, we introduce NoPo-Avatar, which reconstructs avatars solely from images, without any pose input. By removing the dependence of test-time reconstruction on human poses, NoPo-Avatar is not affected by noisy human pose estimates, making it more widely applicable. Experiments on challenging THuman2.0, XHuman, and HuGe100K data show that NoPo-Avatar outperforms existing baselines in practical settings (without ground-truth poses) and delivers comparable results in lab settings (with ground-truth poses).
- Abstract(参考訳): 我々は,1枚または1枚のスパース画像からアニマタブルな3次元アバターを回収する作業に取り組む。
このタスクでは、一連の画像の他に、多くの最先端の手法が正確な「地中真実」のポーズと人間のポーズを入力として、テスト時の再構築を誘導する。
ポーズ依存再建は, ポーズ推定がノイズの多い場合, 結果を著しく劣化させることを示す。
これを解決するために、ポーズ入力なしで画像のみからアバターを再構築するNoPo-Avatarを導入する。
人間のポーズに対するテスト時間再構成の依存を取り除くことで、NoPo-Avatarはノイズの多い人間のポーズ推定の影響を受けず、より広く適用できる。
挑戦的なTHuman2.0、XHuman、HuGe100Kのデータの実験は、NoPo-Avatarが既存のベースラインを(地平のポーズなしで)実用的に上回り、(地平のポーズで)実験室で同等の結果をもたらすことを示している。
関連論文リスト
- R3-Avatar: Record and Retrieve Temporal Codebook for Reconstructing Photorealistic Human Avatars [28.13595266126147]
R3-アバターは、人間のアバターがアニマタブルで高忠実なレンダリング品質を持つことができないことを克服する。
我々は,新しいポーズの劣化を軽減しつつ,新しい視点から高忠実なレンダリングを実現する「レコーディ・リトリーブ・リコンストラクション」戦略を採用する。
論文 参考訳(メタデータ) (2025-03-17T02:38:13Z) - Vid2Avatar-Pro: Authentic Avatar from Videos in the Wild via Universal Prior [31.780579293685797]
Vid2Avatar-Proは、モノクラーインザミルドビデオから、フォトリアリスティックでアニマタブルな3Dアバターを作成する方法である。
論文 参考訳(メタデータ) (2025-03-03T14:45:35Z) - WonderHuman: Hallucinating Unseen Parts in Dynamic 3D Human Reconstruction [63.666166249633385]
我々はWonderHumanをモノクラービデオから再構成し、高忠実なノベルビューの合成を行う。
提案手法は,与えられたモノクロ映像からフォトリアリスティックなレンダリングを生成する場合のSOTA性能を実現する。
論文 参考訳(メタデータ) (2025-02-03T04:43:41Z) - IDOL: Instant Photorealistic 3D Human Creation from a Single Image [47.51400420928373]
この作業は、データセット、モデル、表現の観点からタスクを再考する。
大規模なHUman中心のGEnerated GEnerated データセットであるHuGe100Kを紹介した。
我々は、与えられた人間の画像から一様空間における3次元ガウス表現を予測するスケーラブルなフィードフォワードトランスフォーマーモデルを開発した。
論文 参考訳(メタデータ) (2024-12-19T15:43:05Z) - AvatarPose: Avatar-guided 3D Pose Estimation of Close Human Interaction from Sparse Multi-view Videos [31.904839609743448]
既存のマルチビュー手法は、複数の密接な対話の人々の3Dポーズと形状を推定する上で、しばしば課題に直面します。
個人ごとのパーソナライズされた暗黙的神経アバターを前者として活用する新しい手法を提案する。
実験により、いくつかの公開データセット上での最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-04T18:41:35Z) - WildAvatar: Learning In-the-wild 3D Avatars from the Web [55.85887047136534]
ウェブから人間をキュレートするためのフィルタプロトコルを用いた注釈パイプラインを提案する。
そして、YouTubeから抽出されたウェブスケールの人間のアバター生成データセットであるWildAvatarをキュレートする。
WildAvatarは、人間の3Dアバター作成のための以前のデータセットより少なくとも10倍高額で、現実世界に近い。
論文 参考訳(メタデータ) (2024-07-02T11:17:48Z) - PuzzleAvatar: Assembling 3D Avatars from Personal Albums [54.831084076478874]
我々は,OOTDアルバムから忠実な3Dアバターを生成する新しいモデルであるPuzzleAvatarを開発した。
学習したトークンを“パズルピース”として利用して,忠実でパーソナライズされた3Dアバターを組み立てます。
論文 参考訳(メタデータ) (2024-05-23T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。