論文の概要: Layered-Garment Net: Generating Multiple Implicit Garment Layers from a
Single Image
- arxiv url: http://arxiv.org/abs/2211.11931v1
- Date: Tue, 22 Nov 2022 00:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 19:04:42.765249
- Title: Layered-Garment Net: Generating Multiple Implicit Garment Layers from a
Single Image
- Title(参考訳): 層状ガーメントネット:単一画像から複数の不必要ガーメント層を生成する
- Authors: Alakh Aggarwal and Jikai Wang and Steven Hogue and Saifeng Ni and
Madhukar Budagavi and Xiaohu Guo
- Abstract要約: LGN(Layered-Garment Net)は、1枚の画像から人体に交叉のない複数層の衣服を生成できる。
われわれの知る限りでは、LGNは1枚の画像から、交差点のない複数の衣服の層を人体に生成する最初の研究である。
- 参考スコア(独自算出の注目度): 8.221518970067288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research works have focused on generating human models and garments
from their 2D images. However, state-of-the-art researches focus either on only
a single layer of the garment on a human model or on generating multiple
garment layers without any guarantee of the intersection-free geometric
relationship between them. In reality, people wear multiple layers of garments
in their daily life, where an inner layer of garment could be partially covered
by an outer one. In this paper, we try to address this multi-layer modeling
problem and propose the Layered-Garment Net (LGN) that is capable of generating
intersection-free multiple layers of garments defined by implicit function
fields over the body surface, given the person's near front-view image. With a
special design of garment indication fields (GIF), we can enforce an implicit
covering relationship between the signed distance fields (SDF) of different
layers to avoid self-intersections among different garment surfaces and the
human body. Experiments demonstrate the strength of our proposed LGN framework
in generating multi-layer garments as compared to state-of-the-art methods. To
the best of our knowledge, LGN is the first research work to generate
intersection-free multiple layers of garments on the human body from a single
image.
- Abstract(参考訳): 最近の研究は、人間のモデルと衣服を2D画像から生成することに焦点を当てている。
しかし、最先端の研究は、人間モデル上の衣服の1つの層のみに焦点を当てたり、それらの間の交叉のない幾何学的関係を保証せずに複数の衣服層を生成することに焦点を当てている。
実際には、日常生活において、内装の層を部分的に外装で覆うことができる複数の衣服を身に着けている。
本稿では,この多層モデリング問題に対処し,人体表面上の暗黙の関数場によって定義された衣服の交叉のない複数層を生成可能な階層化階層ネットワーク(LGN)を提案する。
衣料表示フィールド (GIF) の特殊設計により, 異なる衣服表面と人体との自己断面積を避けるために, 異なる層の署名された距離フィールド (SDF) 間の暗黙の被覆関係を強制することができる。
提案するlgnフレームワークの多層衣服生成における強度の実証実験を行った。
われわれの知る限りでは、LGNは1枚の画像から、交差点のない複数の衣服の層を人体に生成する最初の研究である。
関連論文リスト
- Multi-Garment Customized Model Generation [3.1679243514285194]
マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
論文 参考訳(メタデータ) (2024-08-09T17:57:33Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - ClothCombo: Modeling Inter-Cloth Interaction for Draping Multi-Layered
Clothes [3.8079353598215757]
人間の3次元モデルに任意の服の組み合わせを描画するパイプラインであるClathComboを提示する。
本手法は,GNNに基づくネットワークを用いて,異なる階層の衣服間の相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2023-04-07T06:23:54Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - InsetGAN for Full-Body Image Generation [90.71033704904629]
本稿では,複数の事前学習型GANを結合する新しい手法を提案する。
1つのGANは、グローバルキャンバス(例えば、人体)と、異なる部分に焦点を当てた特別なGAN、またはインセットのセットを生成する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出すことで、セットアップを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:01:46Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z) - VOGUE: Try-On by StyleGAN Interpolation Optimization [14.327659393182204]
対象者の画像と衣服を身に着けている人の画像から、対象の衣服を自動的に生成する。
提案手法の核心はポーズ条件付きstylegan2潜在空間であり,各画像からの関心領域をシームレスに結合する。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
論文 参考訳(メタデータ) (2021-01-06T22:01:46Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。