論文の概要: ClothHMR: 3D Mesh Recovery of Humans in Diverse Clothing from Single Image
- arxiv url: http://arxiv.org/abs/2512.17545v1
- Date: Fri, 19 Dec 2025 13:10:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.394116
- Title: ClothHMR: 3D Mesh Recovery of Humans in Diverse Clothing from Single Image
- Title(参考訳): ClothHMR:1枚の画像から被服の3次元メッシュ復元
- Authors: Yunqi Gao, Leyuan Liu, Yuhan Li, Changxin Gao, Yuanyuan Liu, Jingying Chen,
- Abstract要約: 多様な衣服で人間の3Dメッシュを正確に回収するためのClathHMRを提案する。
ClothHMRは主に2つのモジュールで構成されている。
- 参考スコア(独自算出の注目度): 27.086022399610943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With 3D data rapidly emerging as an important form of multimedia information, 3D human mesh recovery technology has also advanced accordingly. However, current methods mainly focus on handling humans wearing tight clothing and perform poorly when estimating body shapes and poses under diverse clothing, especially loose garments. To this end, we make two key insights: (1) tailoring clothing to fit the human body can mitigate the adverse impact of clothing on 3D human mesh recovery, and (2) utilizing human visual information from large foundational models can enhance the generalization ability of the estimation. Based on these insights, we propose ClothHMR, to accurately recover 3D meshes of humans in diverse clothing. ClothHMR primarily consists of two modules: clothing tailoring (CT) and FHVM-based mesh recovering (MR). The CT module employs body semantic estimation and body edge prediction to tailor the clothing, ensuring it fits the body silhouette. The MR module optimizes the initial parameters of the 3D human mesh by continuously aligning the intermediate representations of the 3D mesh with those inferred from the foundational human visual model (FHVM). ClothHMR can accurately recover 3D meshes of humans wearing diverse clothing, precisely estimating their body shapes and poses. Experimental results demonstrate that ClothHMR significantly outperforms existing state-of-the-art methods across benchmark datasets and in-the-wild images. Additionally, a web application for online fashion and shopping powered by ClothHMR is developed, illustrating that ClothHMR can effectively serve real-world usage scenarios. The code and model for ClothHMR are available at: \url{https://github.com/starVisionTeam/ClothHMR}.
- Abstract(参考訳): マルチメディア情報の重要形態として3Dデータが急速に出現する中で、3Dヒューマンメッシュリカバリ技術も進歩している。
しかし、現在の手法は主にタイトな衣服を身に着けた人間の扱いに重点を置いており、体型を推定したり、多彩な衣服、特にゆるい衣服の下でポーズをしたりする際には不利な働きをする。
この目的のために,(1) 人体にフィットする衣服の調整は, 衣服の3次元メッシュ回復に対する悪影響を軽減し, (2) 大規模基盤モデルからの人間の視覚情報を活用することにより, 推定の一般化能力を高めることができる。
これらの知見に基づいて,多様な衣服の3次元メッシュを正確に復元するClathHMRを提案する。
ClothHMRは主に2つのモジュールで構成されている。
CTモジュールは、身体のセマンティックな推定と身体のエッジ予測を使用して衣服を調整し、身体のシルエットに適合するようにしている。
MRモジュールは、3Dメッシュの中間表現を基礎的人間の視覚モデル(FHVM)から推測されたものと連続的に整合させることにより、3Dメッシュの初期パラメータを最適化する。
ClothHMRは、さまざまな服を着ている人間の3Dメッシュを正確に復元し、身体の形やポーズを正確に推定する。
実験結果から、ClathHMRは既存の最先端の手法よりも、ベンチマークデータセットやアプリ内画像よりも優れていることが示された。
さらに、ClothHMRを利用したオンラインファッションとショッピングのためのWebアプリケーションが開発され、ClothHMRが実世界の利用シナリオを効果的に提供できることが示されている。
ClothHMRのコードとモデルは以下の通りである。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - Realistic, Animatable Human Reconstructions for Virtual Fit-On [0.7649716717097428]
個人化された3D人間モデルに異なる衣服を合わせることができるエンドツーエンドの仮想試着パイプラインを提案する。
本研究の主な目的は、3次元仮想環境において、アニマタブルな3次元人間モデルを構築し、異なる衣服を試着することである。
論文 参考訳(メタデータ) (2022-10-16T13:36:24Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。