論文の概要: Generative Human Geometry Distribution
- arxiv url: http://arxiv.org/abs/2503.01448v3
- Date: Sun, 05 Oct 2025 07:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:09.446861
- Title: Generative Human Geometry Distribution
- Title(参考訳): 生成的人体形状分布
- Authors: Xiangjun Tang, Biao Zhang, Peter Wonka,
- Abstract要約: 我々は、最近提案された、高忠実度で単一の人間の幾何学をモデル化可能な、幾何学的分布に基づいて構築する。
本稿では,ネットワークパラメータではなく2次元特徴写像として分布を符号化する手法と,ガウスではなく領域としてSMPLモデルを提案する。
実験の結果,提案手法は既存の最先端手法よりも優れており,幾何学的品質が57%向上していることがわかった。
- 参考スコア(独自算出の注目度): 49.58025398670139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Realistic human geometry generation is an important yet challenging task, requiring both the preservation of fine clothing details and the accurate modeling of clothing-body interactions. To tackle this challenge, we build upon Geometry distributions, a recently proposed representation that can model a single human geometry with high fidelity using a flow matching model. However, extending a single-geometry distribution to a dataset is non-trivial and inefficient for large-scale learning. To address this, we propose a new geometry distribution model by two key techniques: (1) encoding distributions as 2D feature maps rather than network parameters, and (2) using SMPL models as the domain instead of Gaussian and refining the associated flow velocity field. We then design a generative framework adopting a two staged training paradigm analogous to state-of-the-art image and 3D generative models. In the first stage, we compress geometry distributions into a latent space using a diffusion flow model; the second stage trains another flow model on this latent space. We validate our approach on two key tasks: pose-conditioned random avatar generation and avatar-consistent novel pose synthesis. Experimental results demonstrate that our method outperforms existing state-of-the-art methods, achieving a 57% improvement in geometry quality.
- Abstract(参考訳): リアルな人間の幾何生成は重要な課題であり、衣服の詳細の保存と衣服と身体の相互作用の正確なモデリングの両方を必要とする。
この課題に対処するために、フローマッチングモデルを用いて、高忠実度で単一の人間の幾何学をモデル化可能な、最近提案されたGeometry distributionsを基盤として構築する。
しかし、単一幾何学分布をデータセットに拡張することは、大規模学習では非自明で非効率である。
そこで本研究では,(1)分布をネットワークパラメータではなく2次元特徴写像として符号化すること,(2)ガウスではなくSMPLモデルを領域として用いること,および関連する流速場を改良すること,の2つの主要な手法により,新しい幾何学分布モデルを提案する。
次に、最先端画像と3D生成モデルに類似した2段階の訓練パラダイムを取り入れた生成フレームワークを設計する。
第1段階では拡散流モデルを用いて幾何学的分布を潜伏空間に圧縮し,第2段階はこの潜伏空間上で別の流れモデルを訓練する。
本研究では,ポーズ条件付きランダムなアバター生成とアバター一貫性のある新規ポーズ合成という2つの重要な課題に対するアプローチを検証する。
実験の結果,提案手法は既存の最先端手法よりも優れており,幾何学的品質が57%向上していることがわかった。
関連論文リスト
- GRACE: Estimating Geometry-level 3D Human-Scene Contact from 2D Images [54.602947113980655]
人景接触の幾何レベルを推定することは、特定の接触面点を3次元の人間ジオメトリに接することを目的としている。
GRACE(Geometry-level Reasoning for 3D Human-scene Contact Estimation)は,3次元接触推定のための新しいパラダイムである。
ポイントクラウドエンコーダ/デコーダアーキテクチャと階層的特徴抽出と融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2025-05-10T09:25:46Z) - JADE: Joint-aware Latent Diffusion for 3D Human Generative Modeling [62.77347895550087]
JADEは人体形状の変化を微粒化制御で学習する生成フレームワークである。
私たちの重要な洞察は、人体を骨格構造に分解する共同認識の潜伏表現です。
提案した分解条件下でのコヒーレントで可塑性な人体形状を生成するため,カスケードパイプラインも提案する。
論文 参考訳(メタデータ) (2024-12-29T14:18:35Z) - MultiGO: Towards Multi-level Geometry Learning for Monocular 3D Textured Human Reconstruction [4.457326808146675]
本稿では, 単眼画像から3次元布体を再構築する研究課題について検討する。
既存のアプローチでは、事前訓練されたSMPL(-X)推定モデルや生成モデルを利用して、人間の再構築に補助情報を提供する。
技術的には,骨格レベルの強化,関節レベルの強化,輪郭レベルの改良モジュールの3つの重要なコンポーネントを設計する。
論文 参考訳(メタデータ) (2024-12-04T08:06:06Z) - GeneMAN: Generalizable Single-Image 3D Human Reconstruction from Multi-Source Human Data [61.05815629606135]
高忠実度3Dモデルを構築するのが難しい課題です。
GeneMANは高品質な人間のデータを総合的に収集する。
GeneMANは、単一の画像入力から高品質な3Dモデルを生成することができ、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-27T18:59:54Z) - Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Geometric Prior Guided Feature Representation Learning for Long-Tailed Classification [47.09355487357069]
そこで,本論文では,よく表現されたヘッドクラスの特徴分布の幾何学的情報を活用し,モデルにテールクラスの基盤となる分布を学習させる手法を提案する。
パータード機能は、可能な限りテールクラスの基盤となる分布をカバーし、テスト領域におけるモデルの一般化性能を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-01-21T09:16:29Z) - HyperHuman: Hyper-Realistic Human Generation with Latent Structural Diffusion [114.15397904945185]
本稿では,高リアリズムと多彩なレイアウトの人体画像を生成する統一的なフレームワークHyperHumanを提案する。
本モデルは,統合ネットワークにおける画像の外観,空間的関係,幾何学の連成学習を強制する。
我々のフレームワークは最先端の性能を生み出し、多様なシナリオ下で超現実的な人間の画像を生成する。
論文 参考訳(メタデータ) (2023-10-12T17:59:34Z) - Few-shot 3D Shape Generation [18.532357455856836]
本研究では,大領域で事前学習した生成モデルを限定データを用いて対象領域に適応させることにより,少数の3次元形状生成を実現するための最初の試みを行う。
提案手法では,ターゲット形状分布を学習するためのトレーニングデータとして,数発のターゲットサンプルのシルエットしか必要としない。
論文 参考訳(メタデータ) (2023-05-19T13:30:10Z) - Deformable Model-Driven Neural Rendering for High-Fidelity 3D
Reconstruction of Human Heads Under Low-View Settings [20.07788905506271]
低視点で3Dの頭部を再構築することは技術的な課題を呈する。
幾何学的分解を提案し、2段階の粗大なトレーニング戦略を採用する。
提案手法は,低視野環境下での再現精度と新規ビュー合成の観点から,既存のニューラルレンダリング手法より優れる。
論文 参考訳(メタデータ) (2023-03-24T08:32:00Z) - THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers [67.8628917474705]
THUNDRは、人の3Dポーズと形状を再構築するトランスフォーマーベースのディープニューラルネットワーク手法である。
完全教師付きモデルと自己教師型モデルの両方に対して,Human3.6Mと3DPWの最先端結果を示す。
野生で収集された難易度の高い人間のポーズに対して, 非常に堅固な3次元再構成性能を観察した。
論文 参考訳(メタデータ) (2021-06-17T09:09:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。