論文の概要: CloseUpAvatar: High-Fidelity Animatable Full-Body Avatars with Mixture of Multi-Scale Textures
- arxiv url: http://arxiv.org/abs/2512.03593v1
- Date: Wed, 03 Dec 2025 09:25:01 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:01:59.613462
- Title: CloseUpAvatar: High-Fidelity Animatable Full-Body Avatars with Mixture of Multi-Scale Textures
- Title(参考訳): CloseUpAvatar: マルチスケールテクスチャを混合した高忠実アンマタブルフルボディアバター
- Authors: David Svitov, Pietro Morerio, Lourdes Agapito, Alessio Del Bue,
- Abstract要約: CloseUpAvatarはアバターを2組の学習可能なテクスチャの集合として表現し、低周波と高周波のディテールを表現している。
CloseUpAvatarは、カメラ距離に基づいてレンダリング品質を調整し、より広い範囲のカメラオリエンテーションにわたってリアルなレンダリングを保証する。
- 参考スコア(独自算出の注目度): 35.433324203291185
- License:
- Abstract: We present a CloseUpAvatar - a novel approach for articulated human avatar representation dealing with more general camera motions, while preserving rendering quality for close-up views. CloseUpAvatar represents an avatar as a set of textured planes with two sets of learnable textures for low and high-frequency detail. The method automatically switches to high-frequency textures only for cameras positioned close to the avatar's surface and gradually reduces their impact as the camera moves farther away. Such parametrization of the avatar enables CloseUpAvatar to adjust rendering quality based on camera distance ensuring realistic rendering across a wider range of camera orientations than previous approaches. We provide experiments using the ActorsHQ dataset with high-resolution input images. CloseUpAvatar demonstrates both qualitative and quantitative improvements over existing methods in rendering from novel wide range camera positions, while maintaining high FPS by limiting the number of required primitives.
- Abstract(参考訳): 我々は、クローズアップビューのレンダリング品質を維持しつつ、より一般的なカメラモーションを扱う人間のアバター表現のための新しいアプローチであるCloseUpAvatarを提案する。
CloseUpAvatarはアバターを2組の学習可能なテクスチャの集合として表現し、低周波と高周波のディテールを表現している。
この方法は、アバターの表面に近い位置にあるカメラのみの高周波テクスチャに自動的に切り替え、カメラが遠くに移動するにつれて、その衝撃を徐々に減少させる。
このようなアバターのパラメトリゼーションにより、CloseUpAvatarはカメラ距離に基づいてレンダリング品質を調整でき、従来のアプローチよりも広い範囲のカメラオリエンテーションをリアルにレンダリングできる。
本稿では,高解像度の入力画像を用いたActorHQデータセットを用いた実験を行う。
CloseUpAvatarは、必要なプリミティブの数を制限することで高いFPSを維持しながら、新しいワイドレンジカメラ位置からのレンダリングにおいて、既存の方法よりも質的かつ定量的に改善されていることを実証している。
関連論文リスト
- UMA: Ultra-detailed Human Avatars via Multi-level Surface Alignment [63.772978308636006]
多視点ビデオから鮮明なダイナミック性とフォトリアリスティックな外観を持つアニマタブルな人間のアバターモデルを学ぶことは、コンピュータグラフィックスとビジョンにおいて重要な基礎研究課題である。
本稿では,基本的な2次元ビデオポイントトラッカーからのガイダンスを用いて,潜時変形モデルを提案し,アニマタブルキャラクタの3次元変形を監督する。
提案手法は,先行技術に比べてレンダリング品質と幾何学的精度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2025-06-02T15:42:33Z) - Beyond Wide-Angle Images: Structure-to-Detail Video Portrait Correction via Unsupervised Spatiotemporal Adaptation [30.50527916658749]
そこで我々は,ImagePC という構造と細かな人物像の補正モデルを提案する。
変換器の長距離認識と拡散モデルの多段階分極を統一的なフレームワークに統合する。
ビデオラベル取得の高コストを考えると、未ラベル広角ビデオ(終値ビデオPC)に ImagePC を再利用する。
論文 参考訳(メタデータ) (2025-04-01T03:49:59Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - Deblur-Avatar: Animatable Avatars from Motion-Blurred Monocular Videos [64.10307207290039]
本研究では,モーションブルモノクロビデオ入力から高忠実でアニマタブルな3次元アバターをモデリングするための新しいフレームワークを提案する。
被曝時の人体運動軌跡を明示的にモデル化することにより、鋭く高品質な人体アバターを再構築するために、軌跡と3Dガウスアンを共同で最適化する。
論文 参考訳(メタデータ) (2025-01-23T02:31:57Z) - GaussianStyle: Gaussian Head Avatar via StyleGAN [64.85782838199427]
本稿では,3DGSのボリューム強度とStyleGANの強力な暗黙表現を統合する新しいフレームワークを提案する。
提案手法は, 再現性, 新規なビュー合成, アニメーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-01T18:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。