論文の概要: TailorGAN: Making User-Defined Fashion Designs
- arxiv url: http://arxiv.org/abs/2001.06427v2
- Date: Mon, 20 Jan 2020 03:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 12:35:29.940770
- Title: TailorGAN: Making User-Defined Fashion Designs
- Title(参考訳): TailorGAN: ユーザ定義のファッションデザイン
- Authors: Lele Chen, Justin Tian, Guo Li, Cheng-Haw Wu, Erh-Kan King, Kuan-Ting
Chen, Shao-Hang Hsieh, Chenliang Xu
- Abstract要約: そこで本研究では,2組のデータを使わずに,不整合特性を持つ衣服画像を合成する,新たな自己教師型モデルを提案する。
本手法は,再構築学習ステップと逆学習ステップから構成される。
このデータセットと実世界のサンプルを用いた実験により、我々の手法は最先端の手法よりもはるかに優れた結果を合成できることを示した。
- 参考スコア(独自算出の注目度): 28.805686791183618
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Attribute editing has become an important and emerging topic of computer
vision. In this paper, we consider a task: given a reference garment image A
and another image B with target attribute (collar/sleeve), generate a
photo-realistic image which combines the texture from reference A and the new
attribute from reference B. The highly convoluted attributes and the lack of
paired data are the main challenges to the task. To overcome those limitations,
we propose a novel self-supervised model to synthesize garment images with
disentangled attributes (e.g., collar and sleeves) without paired data. Our
method consists of a reconstruction learning step and an adversarial learning
step. The model learns texture and location information through reconstruction
learning. And, the model's capability is generalized to achieve
single-attribute manipulation by adversarial learning. Meanwhile, we compose a
new dataset, named GarmentSet, with annotation of landmarks of collars and
sleeves on clean garment images. Extensive experiments on this dataset and
real-world samples demonstrate that our method can synthesize much better
results than the state-of-the-art methods in both quantitative and qualitative
comparisons.
- Abstract(参考訳): 属性編集はコンピュータビジョンの重要なトピックとなりつつある。
本稿では、対象属性(カラー/スリーブ)を有する基準衣服画像Aと他の画像Bとを与えられた場合、基準属性からのテクスチャと参照属性からの新たな属性を組み合わせた写真リアル画像を生成する。
そこで,これらの制約を克服するために,不連続属性(首輪や袖)を持つ衣服画像をペアデータなしで合成する,新しい自己教師付きモデルを提案する。
本手法は,再構築学習ステップと逆学習ステップから構成される。
モデルは再構築学習を通じてテクスチャと位置情報を学習する。
そして,モデルの性能を一般化して,逆学習による単一属性操作を実現する。
一方、クリーンな衣料品画像にカラーとスリーブのランドマークの注釈を付けたGarmentSetという新しいデータセットを作成した。
このデータセットと実世界のサンプルに関する広範な実験は、定量的比較と質的比較の両方において、最先端の手法よりも優れた結果を合成できることを示しています。
関連論文リスト
- Learning Action and Reasoning-Centric Image Editing from Videos and Simulations [45.637947364341436]
AURORAデータセット(AURORA data)は、ビデオやシミュレーションエンジンから人間に注釈を付け、キュレートされた高品質なトレーニングデータの集合である。
AURORA-finetuned model on a new expert-curated benchmark across 8 various editing task。
我々のモデルは従来の編集モデルよりもはるかに優れており、人間のレーティングによって判断される。
論文 参考訳(メタデータ) (2024-07-03T19:36:33Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - ClipCrop: Conditioned Cropping Driven by Vision-Language Model [90.95403416150724]
我々は、堅牢でユーザ意図的な収穫アルゴリズムを構築する基盤として、視覚言語モデルを活用している。
そこで本研究では,ユーザの意図を反映したテキストや画像クエリを用いて,トリミングを行う手法を開発した。
私たちのパイプライン設計では、小さなデータセットでテキスト条件の美学を学習することができます。
論文 参考訳(メタデータ) (2022-11-21T14:27:07Z) - Self-Distilled StyleGAN: Towards Generation from Internet Photos [47.28014076401117]
本稿では,インターネットから収集した未処理画像に対して,StyleGANをどのように適応させるかを示す。
本稿では,2つの主成分からなるスタイルGANを用いた自己蒸留法を提案する。
提案手法は,データの多様性の損失を最小限に抑えつつ,高品質な画像の生成を可能にする。
論文 参考訳(メタデータ) (2022-02-24T17:16:47Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Learning Intrinsic Images for Clothing [10.21096394185778]
本稿では,衣料品画像の内在的画像分解に着目した。
より解釈可能なエッジ対応メトリックとアノテーションスキームは、テストセット用に設計されている。
提案モデルでは, 驚くほど細かな細部を保ちながら, テクスチャコピーのアーティファクトを著しく低減することを示した。
論文 参考訳(メタデータ) (2021-11-16T14:43:12Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - RTIC: Residual Learning for Text and Image Composition using Graph
Convolutional Network [19.017377597937617]
画像検索のための画像とテキストの構成学習について検討する。
本稿では,グラフ畳み込みネットワーク(gcn)と既存の合成手法を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T09:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。