論文の概要: Human Mesh Modeling for Anny Body
- arxiv url: http://arxiv.org/abs/2511.03589v1
- Date: Wed, 05 Nov 2025 16:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.47907
- Title: Human Mesh Modeling for Anny Body
- Title(参考訳): ニーボディのヒューマン・メッシュ・モデリング
- Authors: Romain Brégier, Guénolé Fiche, Laura Bravo-Sánchez, Thomas Lucas, Matthieu Armando, Philippe Weinzaepfel, Grégory Rogez, Fabien Baradel,
- Abstract要約: パラメトリックボディモデルは、多くの人間中心のタスクの中心であるが、既存のモデルはコストのかかる3Dスキャンと、プロプライエタリで人口統計学的に狭い学習された形状空間に依存していることが多い。
我々は,MakeHumanコミュニティの人文的知識を基盤とした,スキャン不要な人体モデルAnnyを紹介する。
Annyは、ミリ精度のスキャンフィッティング、制御された合成データ生成、Human Mesh Recovery(HMR)をサポートする3Dモデリングの汎用基盤として機能する。
- 参考スコア(独自算出の注目度): 29.736517168498136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parametric body models are central to many human-centric tasks, yet existing models often rely on costly 3D scans and learned shape spaces that are proprietary and demographically narrow. We introduce Anny, a simple, fully differentiable, and scan-free human body model grounded in anthropometric knowledge from the MakeHuman community. Anny defines a continuous, interpretable shape space, where phenotype parameters (e.g. gender, age, height, weight) control blendshapes spanning a wide range of human forms -- across ages (from infants to elders), body types, and proportions. Calibrated using WHO population statistics, it provides realistic and demographically grounded human shape variation within a single unified model. Thanks to its openness and semantic control, Anny serves as a versatile foundation for 3D human modeling -- supporting millimeter-accurate scan fitting, controlled synthetic data generation, and Human Mesh Recovery (HMR). We further introduce Anny-One, a collection of 800k photorealistic humans generated with Anny, showing that despite its simplicity, HMR models trained with Anny can match the performance of those trained with scan-based body models, while remaining interpretable and broadly representative. The Anny body model and its code are released under the Apache 2.0 license, making Anny an accessible foundation for human-centric 3D modeling.
- Abstract(参考訳): パラメトリックボディモデルは、多くの人間中心のタスクの中心であるが、既存のモデルはコストのかかる3Dスキャンと、プロプライエタリで人口統計学的に狭い学習された形状空間に依存していることが多い。
我々は,MakeHumanコミュニティの人文的知識を基盤とした,シンプルで,完全に差別化可能な,スキャンなしの人体モデルであるAnnyを紹介した。
Annyは、表現型パラメータ(性別、年齢、身長、体重など)が、年齢(幼児から高齢者まで)、体型、比率にまたがる幅広い人間の形態をブレンドする、連続的かつ解釈可能な形状空間を定義している。WHOの統計を用いて、単一の統一モデル内で、現実的で、人口的基盤を持つ人間の形状の変化を提供する。オープン性とセマンティックコントロールのおかげで、Annyは3Dモデリングの汎用基盤として機能し、ミリ精度のスキャンフィッティング、制御された合成データ生成、ヒューマンメッシュリカバリ(HMR)をサポートする。
さらに、Annyで生成された800kのフォトリアリスティックな人間のコレクションであるAnny-Oneを紹介し、その単純さにもかかわらず、Annyで訓練されたHMRモデルは、スキャンベースボディモデルで訓練された人のパフォーマンスと一致し、解釈可能で広範囲に代表的であることを示した。
AnnyボディモデルとそのコードはApache 2.0ライセンスでリリースされており、Annyは人間中心の3Dモデリングの基盤として利用できる。
関連論文リスト
- Leveraging Anthropometric Measurements to Improve Human Mesh Estimation and Ensure Consistent Body Shapes [12.932412290302258]
推定した3次元キーポイント位置の精度に関して,SOTA 3D人間ポーズ推定(HPE)モデルがHMEモデルより優れていることがわかった。
A2Bと呼ばれるモデルを作成し、人間のメッシュモデルの基本形状パラメータに変換する。
論文 参考訳(メタデータ) (2024-09-26T09:30:37Z) - AnthroNet: Conditional Generation of Humans via Anthropometrics [2.4016781107988265]
本稿では,人間中心の広範囲な測定によって定式化された新しい人体モデルを提案する。
提案モデルは, 深層生成アーキテクチャを用いて, 特定の人物の直接モデリングを可能にする。
人工的に生成されたデータのみを使用してエンドツーエンドで訓練されたのは、今回が初めてである。
論文 参考訳(メタデータ) (2023-09-07T16:09:06Z) - SynBody: Synthetic Dataset with Layered Human Models for 3D Human
Perception and Modeling [93.60731530276911]
我々は3つの魅力的な特徴を持つ新しい合成データセット、SynBodyを紹介した。
データセットは、正確な3Dアノテーションを備えた1.2Mイメージで構成され、1万の人体モデル、1,187のアクション、さまざまな視点をカバーしている。
論文 参考訳(メタデータ) (2023-03-30T13:30:12Z) - SUPR: A Sparse Unified Part-Based Human Representation [61.693373050670644]
既存の頭と手のモデルでは、これらの部分の完全な動きを捉えることができません。
従来のボディパーツモデルは、個々のパーツに分離された3Dスキャンを使用して訓練されている。
そこで本研究では,全体モデルと特定部分モデルとを共同で学習する学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T09:32:34Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Embodied Hands: Modeling and Capturing Hands and Bodies Together [61.32931890166915]
人間は、コミュニケーションとタスクの解決のために、手と体を一緒に移動します。
ほとんどの方法は、体と手の3Dモデリングと追跡を別々に扱う。
我々は、手と体の相互作用をモデルとして定式化し、それをフルボディの4Dシーケンスに適合させる。
論文 参考訳(メタデータ) (2022-01-07T18:59:32Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。