論文の概要: InfiniHuman: Infinite 3D Human Creation with Precise Control
- arxiv url: http://arxiv.org/abs/2510.11650v1
- Date: Mon, 13 Oct 2025 17:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.479247
- Title: InfiniHuman: Infinite 3D Human Creation with Precise Control
- Title(参考訳): InfiniHuman: 精密制御による無限の3次元人間の創造
- Authors: Yuxuan Xue, Xianghui Xie, Margaret Kostyrko, Gerard Pons-Moll,
- Abstract要約: InfiniHumanは、既存の基礎モデルを蒸留して、リッチな注釈付き人間データを生成するフレームワークである。
InfiniHumanDataには、前例のない多様性にまたがる111KのIDが含まれている。
InfiniHumanGenは高速でリアルで正確に制御可能なアバター生成を可能にする。
- 参考スコア(独自算出の注目度): 25.397126937363012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating realistic and controllable 3D human avatars is a long-standing challenge, particularly when covering broad attribute ranges such as ethnicity, age, clothing styles, and detailed body shapes. Capturing and annotating large-scale human datasets for training generative models is prohibitively expensive and limited in scale and diversity. The central question we address in this paper is: Can existing foundation models be distilled to generate theoretically unbounded, richly annotated 3D human data? We introduce InfiniHuman, a framework that synergistically distills these models to produce richly annotated human data at minimal cost and with theoretically unlimited scalability. We propose InfiniHumanData, a fully automatic pipeline that leverages vision-language and image generation models to create a large-scale multi-modal dataset. User study shows our automatically generated identities are undistinguishable from scan renderings. InfiniHumanData contains 111K identities spanning unprecedented diversity. Each identity is annotated with multi-granularity text descriptions, multi-view RGB images, detailed clothing images, and SMPL body-shape parameters. Building on this dataset, we propose InfiniHumanGen, a diffusion-based generative pipeline conditioned on text, body shape, and clothing assets. InfiniHumanGen enables fast, realistic, and precisely controllable avatar generation. Extensive experiments demonstrate significant improvements over state-of-the-art methods in visual quality, generation speed, and controllability. Our approach enables high-quality avatar generation with fine-grained control at effectively unbounded scale through a practical and affordable solution. We will publicly release the automatic data generation pipeline, the comprehensive InfiniHumanData dataset, and the InfiniHumanGen models at https://yuxuan-xue.com/infini-human.
- Abstract(参考訳): 現実的でコントロール可能な3Dアバターを生成することは、特に民族、年齢、衣服のスタイル、詳細な体型といった幅広い属性範囲をカバーする場合、長年にわたる課題である。
生成モデルをトレーニングするための大規模な人的データセットのキャプチャと注釈付けは、違法に高価であり、スケールと多様性に制限がある。
既存の基礎モデルを蒸留して理論上非有界でリッチな注釈付き3Dデータを生成することは可能か?
InfiniHumanは、これらのモデルを相乗的に蒸留して、高額な注釈付きデータを最小限のコストで、理論上無制限のスケーラビリティで生成するフレームワークである。
InfiniHumanDataは、視覚言語と画像生成モデルを利用して大規模なマルチモーダルデータセットを作成する完全自動パイプラインである。
ユーザスタディは、自動生成されたIDがスキャンレンダリングと区別できないことを示している。
InfiniHumanDataには、前例のない多様性にまたがる111KのIDが含まれている。
各アイデンティティには、マルチグラニュラリティテキスト記述、マルチビューRGBイメージ、詳細な衣料品画像、SMPLボディ形状パラメータが注釈付けされている。
InfiniHumanGenは,テキスト,体形,衣服の資産を条件とした拡散型生成パイプラインである。
InfiniHumanGenは高速でリアルで正確に制御可能なアバター生成を可能にする。
広汎な実験は、視覚的品質、生成速度、制御性において最先端の手法よりも大幅に改善されている。
提案手法により,実用的で手頃なソリューションにより,高精細な粒度制御が可能な高品質なアバターを効果的に非有界スケールで実現する。
私たちは、自動データ生成パイプライン、包括的なInfiniHumanDataデータセット、InfiniHumanGenモデルをhttps://yuxuan-xue.com/infini-human.comで公開します。
関連論文リスト
- HuGeDiff: 3D Human Generation via Diffusion with Gaussian Splatting [33.9893684177763]
現在の手法は、細部、手と顔の正確なレンダリング、人間のリアリズム、外観に対する制御性に苦慮している。
これらの課題に対処しようとする弱教師付きパイプラインを提示する。
我々は、最先端のアプローチと比較して、3次元の人間の世代において、オーダー・オブ・マグニチュード・スピードアップを実演する。
論文 参考訳(メタデータ) (2025-06-04T18:11:23Z) - MVHumanNet++: A Large-scale Dataset of Multi-view Daily Dressing Human Captures with Richer Annotations for 3D Human Digitization [36.46025784260418]
MVHumanNet++は4,500人の人物の多視点的行動系列からなるデータセットである。
私たちのデータセットには、9000の日用品、6万のモーションシーケンスと6億5500万のフレームが含まれています。
論文 参考訳(メタデータ) (2025-05-03T15:02:34Z) - HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - CapHuman: Capture Your Moments in Parallel Universes [60.06408546134581]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - MVHumanNet: A Large-scale Dataset of Multi-view Daily Dressing Human
Captures [44.172804112944625]
MVHumanNetは4,500人の身元からなる多視点人間の行動系列からなるデータセットである。
我々のデータセットには、人のマスク、カメラパラメータ、2Dおよび3Dキーポイント、SMPL/SMPLXパラメータ、および対応するテキスト記述を含む、9000の日次服、6万のモーションシーケンス、645万の豊富なアノテーションが含まれています。
論文 参考訳(メタデータ) (2023-12-05T18:50:12Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。