論文の概要: PERSONA: Personalized Whole-Body 3D Avatar with Pose-Driven Deformations from a Single Image
- arxiv url: http://arxiv.org/abs/2508.09973v1
- Date: Wed, 13 Aug 2025 17:40:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.982018
- Title: PERSONA: Personalized Whole-Body 3D Avatar with Pose-Driven Deformations from a Single Image
- Title(参考訳): ペルソナ:1枚の画像からポス駆動の変形を伴うパーソナライズされた全体3Dアバター
- Authors: Geonhee Sim, Gyeongsik Moon,
- Abstract要約: アニマタブルなヒトアバターを作るための2つの主要なアプローチが存在する。
3Dベースのアプローチは、非絡み合ったアイデンティティ表現を通じてパーソナライズを実現する。
拡散に基づくアプローチは、大規模なインザワイルドビデオからポーズ駆動変形を学ぶが、アイデンティティ保存に苦慮する。
本稿では,2つのアプローチの長所を組み合わせて,パーソナをパーソナライズした3Dアバターを提案する。
- 参考スコア(独自算出の注目度): 17.76649311703262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Two major approaches exist for creating animatable human avatars. The first, a 3D-based approach, optimizes a NeRF- or 3DGS-based avatar from videos of a single person, achieving personalization through a disentangled identity representation. However, modeling pose-driven deformations, such as non-rigid cloth deformations, requires numerous pose-rich videos, which are costly and impractical to capture in daily life. The second, a diffusion-based approach, learns pose-driven deformations from large-scale in-the-wild videos but struggles with identity preservation and pose-dependent identity entanglement. We present PERSONA, a framework that combines the strengths of both approaches to obtain a personalized 3D human avatar with pose-driven deformations from a single image. PERSONA leverages a diffusion-based approach to generate pose-rich videos from the input image and optimizes a 3D avatar based on them. To ensure high authenticity and sharp renderings across diverse poses, we introduce balanced sampling and geometry-weighted optimization. Balanced sampling oversamples the input image to mitigate identity shifts in diffusion-generated training videos. Geometry-weighted optimization prioritizes geometry constraints over image loss, preserving rendering quality in diverse poses.
- Abstract(参考訳): アニマタブルなヒトアバターを作るための2つの主要なアプローチが存在する。
最初の3Dベースのアプローチは、1人のビデオからNeRFまたは3DGSベースのアバターを最適化し、アンタングルされたアイデンティティ表現を通じてパーソナライズする。
しかし、非剛性布の変形のようなポーズ駆動の変形をモデル化するには、多くのポーズリッチなビデオが必要である。
第2のアプローチは拡散に基づくアプローチで、大規模なインザワイルドビデオからポーズ駆動の変形を学ぶが、アイデンティティの保存とポーズ依存のアイデンティティの絡み合いに苦慮する。
本稿では,2つのアプローチの長所を組み合わせ,個人化された3次元アバターと1つの画像からのポーズ駆動変形を合成するフレームワークPERSONAを提案する。
PERSONAは拡散に基づくアプローチを利用して、入力画像からポーズリッチなビデオを生成し、それに基づいて3Dアバターを最適化する。
多様なポーズにまたがって高い精度とシャープなレンダリングを確保するため、バランスの取れたサンプリングと幾何重み付けの最適化を導入する。
平衡サンプリングは、拡散生成トレーニングビデオにおけるアイデンティティシフトを軽減するために入力イメージをオーバーサンプリングする。
幾何重み付け最適化は、画像損失よりも幾何制約を優先し、様々なポーズにおけるレンダリング品質を保存する。
関連論文リスト
- PF-LHM: 3D Animatable Avatar Reconstruction from Pose-free Articulated Human Images [23.745241278910946]
PF-LHMは、1つまたは複数のカジュアルにキャプチャされたポーズレス画像から、高品質な3Dアバターを秒間に生成する大規模な人間再構成モデルである。
カメラや人間のポーズアノテーションを必要とせず、高忠実でアニマタブルな3次元アバターを実現する。
論文 参考訳(メタデータ) (2025-06-16T17:59:56Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images [74.86864398919467]
数枚の画像からリアルなアニメーションで、パーソナライズされた3Dアバターを再構成する新しい手法を提案する。
我々は、1000人以上の服を着た人間から普遍的な事前学習を行い、即時フィードフォワード生成とゼロショット一般化を実現する。
提案手法は, 最新技術よりも忠実な再構築とアニメーションを生成し, カジュアルに撮影された携帯電話写真からの入力に直接一般化することができる。
論文 参考訳(メタデータ) (2025-03-24T23:20:47Z) - DreamDance: Animating Human Images by Enriching 3D Geometry Cues from 2D Poses [57.17501809717155]
本研究では,骨格ポーズシーケンスのみを条件入力として,人間のイメージをアニメーションする新しい手法であるDreamDanceを提案する。
私たちの重要な洞察は、人間の画像は自然に複数のレベルの相関を示すということです。
我々は5Kの高品質なダンスビデオと詳細なフレームアノテーションを組み合わせたTikTok-Dance5Kデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-30T08:42:13Z) - AvatarPose: Avatar-guided 3D Pose Estimation of Close Human Interaction from Sparse Multi-view Videos [31.904839609743448]
既存のマルチビュー手法は、複数の密接な対話の人々の3Dポーズと形状を推定する上で、しばしば課題に直面します。
個人ごとのパーソナライズされた暗黙的神経アバターを前者として活用する新しい手法を提案する。
実験により、いくつかの公開データセット上での最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-04T18:41:35Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via
Diffusion Models [55.71306021041785]
高品質な3Dアバターを作成するためのテキスト・アンド・シェイプ・ガイドフレームワークであるDreamAvatarについて紹介する。
SMPLモデルを利用して、生成のための形状とポーズのガイダンスを提供する。
また、全体とズームインした3Dヘッドから計算した損失を共同で最適化し、一般的なマルチフェイス「Janus」問題を緩和する。
論文 参考訳(メタデータ) (2023-04-03T12:11:51Z) - Self-Supervised 3D Human Pose Estimation in Static Video Via Neural
Rendering [5.568218439349004]
2D画像から3Dの人間のポーズを推定することは、コンピュータビジョンの分野における困難かつ長年の問題である。
本研究では,1人の人物を含む2次元映像から3次元ポーズを推定する手法の予備的な結果を示す。
論文 参考訳(メタデータ) (2022-10-10T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。