論文の概要: Dress-Me-Up: A Dataset & Method for Self-Supervised 3D Garment
Retargeting
- arxiv url: http://arxiv.org/abs/2401.03108v1
- Date: Sat, 6 Jan 2024 02:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:36:56.120799
- Title: Dress-Me-Up: A Dataset & Method for Self-Supervised 3D Garment
Retargeting
- Title(参考訳): Dress-Me-Up: 自己監督型3Dガーメント再ターゲットのためのデータセットと方法
- Authors: Shanthika Naik, Kunwar Singh, Astitva Srivastava, Dhawal Sirikonda,
Amit Raj, Varun Jampani, Avinash Sharma
- Abstract要約: 任意の形状とポーズの3次元アバターに非パラメトリック化3次元衣服の新たな枠組みを提案する。
既存の3D手法はパラメトリック・カノニカル・ウェアのみをサポートする。
既存の最先端手法に比べて,非教師なし服や人間のアバターに優れた品質を示す。
- 参考スコア(独自算出の注目度): 28.892029042436626
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel self-supervised framework for retargeting
non-parameterized 3D garments onto 3D human avatars of arbitrary shapes and
poses, enabling 3D virtual try-on (VTON). Existing self-supervised 3D
retargeting methods only support parametric and canonical garments, which can
only be draped over parametric body, e.g. SMPL. To facilitate the
non-parametric garments and body, we propose a novel method that introduces
Isomap Embedding based correspondences matching between the garment and the
human body to get a coarse alignment between the two meshes. We perform neural
refinement of the coarse alignment in a self-supervised setting. Further, we
leverage a Laplacian detail integration method for preserving the inherent
details of the input garment. For evaluating our 3D non-parametric garment
retargeting framework, we propose a dataset of 255 real-world garments with
realistic noise and topological deformations. The dataset contains $44$ unique
garments worn by 15 different subjects in 5 distinctive poses, captured using a
multi-view RGBD capture setup. We show superior retargeting quality on
non-parametric garments and human avatars over existing state-of-the-art
methods, acting as the first-ever baseline on the proposed dataset for
non-parametric 3D garment retargeting.
- Abstract(参考訳): 任意の形状とポーズの3D人間のアバターに、非パラメータ化された3D衣服を再ターゲティングするための新しい自己組織化フレームワークを提案する。
既存の自己監督型3Dリターゲティング手法はパラメトリック服と標準服のみをサポートしており、これはパラメトリックボディ(例えばSMPL)上でのみ描画できる。
本研究は,非パラメトリックな衣服と身体を容易にするために,衣服と人体の対応を整合させて,2つのメッシュ間の粗いアライメントを得る新しい方法を提案する。
我々は自己教師付き環境で粗いアライメントの神経リファインメントを行う。
さらに,ラプラシアン細部積分法を応用して,入力衣服の固有細部を保存する。
3次元非パラメトリックな衣服再ターゲティングフレームワークを評価するために,現実的な雑音と位相変形を伴う255個の現実世界の衣服のデータセットを提案する。
このデータセットには、15人の異なる被験者が5つのユニークなポーズで着る4,4ドルのユニークな衣服が含まれている。
提案した非パラメトリックな3次元衣料再ターゲティングデータセットのベースラインとして,既存の最先端手法に比べて,非パラメトリックな衣服や人間のアバターに優れたリターゲティング品質を示す。
関連論文リスト
- Garment3DGen: 3D Garment Stylization and Texture Generation [11.836357439129301]
Garment3DGenは、単一の入力イメージをガイダンスとして与えられたベースメッシュから3Dの衣服資産を合成する新しい方法である。
画像から3Dへの拡散手法の最近の進歩を生かして, 3次元の衣服測地を創出する。
我々は、グローバルかつ局所的に一貫した高忠実なテクスチャマップを生成し、入力ガイダンスを忠実にキャプチャする。
論文 参考訳(メタデータ) (2024-03-27T17:59:33Z) - PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via Foundation Models [51.24979014650188]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する学習自由パラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
ScanNet、ScanNet++、KITTI-360データセット上の14.1$%、12.3$%、12.6$%のmAPは、最先端のトレーニングフリーモデルを大きく上回っている。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - Garment4D: Garment Reconstruction from Point Cloud Sequences [12.86951061306046]
異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
論文 参考訳(メタデータ) (2021-12-08T08:15:20Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On [29.458328272854107]
本稿では,仮想試行のためのデータ駆動方式を初めて学習することのできる3次元衣服の変形生成モデルを提案する。
本手法は, 実感やディテールを損なうことなく, 被着体接触を目立たない身体形状や動作で解決した最初の方法であることを示す。
論文 参考訳(メタデータ) (2021-05-13T17:58:20Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。