論文の概要: Controllable Garment Transfer
- arxiv url: http://arxiv.org/abs/2204.01965v1
- Date: Tue, 5 Apr 2022 03:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 21:30:55.503141
- Title: Controllable Garment Transfer
- Title(参考訳): 制御可能なガーメント転送
- Authors: Jooeun Son, Tomas Cabezon Pedroso, Carolene Siga, Jinsung Lee
- Abstract要約: 画像に基づく衣服転送は、対象の人間の衣服を所望の衣服に置き換える。
我々は,スリーブ長,腰幅,衣服のテクスチャなどの衣服特性を制御するために,この「ガーメント調整」のカスタマイズ可能なオプションを,我々のモデルに追加することを目指している。
- 参考スコア(独自算出の注目度): 0.726437825413781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-based garment transfer replaces the garment on the target human with
the desired garment; this enables users to virtually view themselves in the
desired garment. To this end, many approaches have been proposed using the
generative model and have shown promising results. However, most fail to
provide the user with on the fly garment modification functionality. We aim to
add this customizable option of "garment tweaking" to our model to control
garment attributes, such as sleeve length, waist width, and garment texture.
- Abstract(参考訳): 画像に基づく衣服転送は、対象の人間の衣服を所望の衣服に置き換える。
この目的のために、生成モデルを用いて多くのアプローチが提案され、有望な結果を示している。
しかし、ほとんどのユーザーはオンザフライの衣服の修正機能をユーザーに提供できない。
我々は,スリーブ長,腰幅,衣服のテクスチャなどの衣服特性を制御するために,この「ガーメント調整」のカスタマイズ可能なオプションを,我々のモデルに追加することを目指している。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - Wearing the Same Outfit in Different Ways -- A Controllable Virtual
Try-on Method [9.176056742068813]
衣料ビジュアライゼーション方法は、それらの衣料品の画像から、実際の衣料品を身に着けている人の画像を生成する。
現在の方法では、リアルに見え、衣服のアイデンティティを保ち、首輪、カフス、テクスチャ、ヘム、袖の長さといった細部で撮影できる。
本稿では,衣料品のアイデンティティを保ちながらドレープを制御する衣料ビジュアライゼーション手法について述べる。
論文 参考訳(メタデータ) (2022-11-29T01:01:01Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - VOGUE: Try-On by StyleGAN Interpolation Optimization [14.327659393182204]
対象者の画像と衣服を身に着けている人の画像から、対象の衣服を自動的に生成する。
提案手法の核心はポーズ条件付きstylegan2潜在空間であり,各画像からの関心領域をシームレスに結合する。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
論文 参考訳(メタデータ) (2021-01-06T22:01:46Z) - Addressing the Cold-Start Problem in Outfit Recommendation Using Visual
Preference Modelling [51.147871738838305]
本稿では,新しい視覚的嗜好モデリング手法を活用することで,新規ユーザに対するコールドスタート問題に対処する。
機能重み付けクラスタリングによるアプローチの活用を実演し、時事指向の衣装レコメンデーションをパーソナライズする。
論文 参考訳(メタデータ) (2020-08-04T10:07:09Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。