論文の概要: ReMu: Reconstructing Multi-layer 3D Clothed Human from Image Layers
- arxiv url: http://arxiv.org/abs/2508.01381v1
- Date: Sat, 02 Aug 2025 14:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.848585
- Title: ReMu: Reconstructing Multi-layer 3D Clothed Human from Image Layers
- Title(参考訳): ReMu:イメージ層から多層型3D衣服を再構築
- Authors: Onat Vuran, Hsuan-I Ho,
- Abstract要約: 本稿では,多層布を施した人間を画像層に再構成するReMuを提案する。
まず,標準体ポーズによって定義された共有座標系を用いて,各衣服層を再構成・整列する。
なお,本手法はテンプレートフリーでカテゴリ非依存であり,多様な衣服スタイルで3D衣服を復元することができる。
- 参考スコア(独自算出の注目度): 3.046315755726937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reconstruction of multi-layer 3D garments typically requires expensive multi-view capture setups and specialized 3D editing efforts. To support the creation of life-like clothed human avatars, we introduce ReMu for reconstructing multi-layer clothed humans in a new setup, Image Layers, which captures a subject wearing different layers of clothing with a single RGB camera. To reconstruct physically plausible multi-layer 3D garments, a unified 3D representation is necessary to model these garments in a layered manner. Thus, we first reconstruct and align each garment layer in a shared coordinate system defined by the canonical body pose. Afterwards, we introduce a collision-aware optimization process to address interpenetration and further refine the garment boundaries leveraging implicit neural fields. It is worth noting that our method is template-free and category-agnostic, which enables the reconstruction of 3D garments in diverse clothing styles. Through our experiments, we show that our method reconstructs nearly penetration-free 3D clothed humans and achieves competitive performance compared to category-specific methods. Project page: https://eth-ait.github.io/ReMu/
- Abstract(参考訳): マルチレイヤの3D衣服の再構築には、高価な多視点撮影装置と特別な3D編集作業が必要である。
生活型衣料アバターの作成を支援するため,RGBカメラ1枚で異なる色の衣料を被った被写体を撮像する画像レイヤを新たに構成した多層衣料アバターReMuを導入する。
物理的に可塑性な多層型3D衣服を再構築するには,これらの衣服を層状にモデル化するために統一された3D表現が必要である。
そこで我々はまず,標準体ポーズによって定義された共有座標系を用いて,各衣服層を再構成・整列する。
その後、衝突を考慮した最適化プロセスを導入し、暗黙のニューラルネットワークを利用した衣服の境界をさらに洗練する。
なお,本手法はテンプレートフリーでカテゴリ非依存であり,多様な衣服スタイルで3D衣服を復元することができる。
提案手法は, ほぼ浸透しない3次元衣服を復元し, カテゴリー別手法と比較して, 競争性能が向上することを示す。
プロジェクトページ: https://eth-ait.github.io/ReMu/
関連論文リスト
- Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - DeClotH: Decomposable 3D Cloth and Human Body Reconstruction from a Single Image [49.69224401751216]
従来の3次元再構築法では、布と人体を区別することなく、単体として扱う方法がほとんどである。
1枚の画像から3D布と人体を別々に再構成するDeClotHを提案する。
論文 参考訳(メタデータ) (2025-03-25T06:00:15Z) - GarmentCrafter: Progressive Novel View Synthesis for Single-View 3D Garment Reconstruction and Editing [85.67881477813592]
GarmentCrafterは、プロでないユーザが、単一のビューイメージから3Dの衣服を作成、修正できる新しいアプローチである。
本手法は,最先端のワンビュー3D衣料復元法と比較して,視覚的忠実度と視間コヒーレンスに優れる。
論文 参考訳(メタデータ) (2025-03-11T17:56:03Z) - HumanCoser: Layered 3D Human Generation via Semantic-Aware Diffusion Model [43.66218796152962]
本稿では,テキストプロンプトから物理的に階層化された3D人間を生成することを目的とする。
本稿では,物理的に分離された拡散モデルに基づく,新しい階層的な人間の表現法を提案する。
そこで本研究では,SMPLによる暗黙的フィールドネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:00:11Z) - LAGA: Layered 3D Avatar Generation and Customization via Gaussian Splatting [18.613001290226773]
LAGA(Layered Gaussian Avatar)は、多彩な衣服で高忠実で分解可能なアバターを作成できるフレームワークである。
衣料品をアバターから切り離すことで,アバターを衣服レベルで安定的に編集することを可能にする。
提案手法は, 従来の3次元衣料人体生成手法を超越した手法である。
論文 参考訳(メタデータ) (2024-05-21T10:24:06Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - MVP-Human Dataset for 3D Human Avatar Reconstruction from Unconstrained
Frames [59.37430649840777]
野生(Arwild)における3次元アバター再構成を行い,まず暗黙のスキンフィールドを多段階的に再構成する。
大規模なデータセットであるMVP-Humanには400人の被験者が参加し、それぞれ異なるポーズで15のスキャンを行います。
全体として、特定のネットワークアーキテクチャと多様なデータにより、トレーニングされたモデルは、制約のないフレームから3Dアバターを再構築することができる。
論文 参考訳(メタデータ) (2022-04-24T03:57:59Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Garment4D: Garment Reconstruction from Point Cloud Sequences [12.86951061306046]
異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
論文 参考訳(メタデータ) (2021-12-08T08:15:20Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。