論文の概要: Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On
- arxiv url: http://arxiv.org/abs/2009.04592v1
- Date: Wed, 9 Sep 2020 22:38:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 11:55:51.579297
- Title: Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On
- Title(参考訳): パラメトリック仮想トライオンのための完全畳み込みグラフニューラルネットワーク
- Authors: Raquel Vidaurre, Igor Santesteban, Elena Garces, Dan Casas
- Abstract要約: 完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
- 参考スコア(独自算出の注目度): 9.293488420613148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a learning-based approach for virtual try-on applications based on
a fully convolutional graph neural network. In contrast to existing data-driven
models, which are trained for a specific garment or mesh topology, our fully
convolutional model can cope with a large family of garments, represented as
parametric predefined 2D panels with arbitrary mesh topology, including long
dresses, shirts, and tight tops. Under the hood, our novel geometric deep
learning approach learns to drape 3D garments by decoupling the three different
sources of deformations that condition the fit of clothing: garment type,
target body shape, and material. Specifically, we first learn a regressor that
predicts the 3D drape of the input parametric garment when worn by a mean body
shape. Then, after a mesh topology optimization step where we generate a
sufficient level of detail for the input garment type, we further deform the
mesh to reproduce deformations caused by the target body shape. Finally, we
predict fine-scale details such as wrinkles that depend mostly on the garment
material. We qualitatively and quantitatively demonstrate that our fully
convolutional approach outperforms existing methods in terms of generalization
capabilities and memory requirements, and therefore it opens the door to more
general learning-based models for virtual try-on applications.
- Abstract(参考訳): 完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのためにトレーニングされた既存のデータ駆動モデルとは対照的に、我々の完全な畳み込みモデルは、長いドレス、シャツ、タイトなトップを含む任意のメッシュトポロジーを持つパラメトリックな事前定義された2dパネルとして表現される、大きな種類の衣服に対応できる。
この新しい幾何学的深層学習手法は,衣服の種類,対象体型,素材の3種類の変形源を分離することで,3d衣料品のドレーピングを学習する。
具体的には,まず,入力パラメトリック衣服の3次元ドレープを平均体形状で予測する回帰器を学習する。
そして、入力された衣服タイプに対して十分な詳細レベルを生成するメッシュトポロジ最適化ステップの後、さらにメッシュを変形させて、対象の体形状による変形を再現する。
最後に,衣料素材に主に依存するしわなどの細部の詳細を予測する。
我々は、完全畳み込みアプローチが、一般化能力とメモリ要件の観点から既存の手法よりも優れていることを定性的かつ定量的に証明し、仮想トライオンアプリケーションのためのより一般的な学習ベースのモデルへの扉を開く。
関連論文リスト
- Neural Capture of Animatable 3D Human from Monocular Video [38.974181971541846]
本稿では,モノクラービデオ入力からアニマタブルな3次元人間の表現を構築するための新しいパラダイムを提案する。
本手法は,メッシュをベースとしたパラメトリックな3次元人体モデルを用いた動的ニューラルレージアンス場(NeRF)に基づく。
論文 参考訳(メタデータ) (2022-08-18T09:20:48Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On [29.458328272854107]
本稿では,仮想試行のためのデータ駆動方式を初めて学習することのできる3次元衣服の変形生成モデルを提案する。
本手法は, 実感やディテールを損なうことなく, 被着体接触を目立たない身体形状や動作で解決した最初の方法であることを示す。
論文 参考訳(メタデータ) (2021-05-13T17:58:20Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。