論文の概要: A deep learning based interactive sketching system for fashion images
design
- arxiv url: http://arxiv.org/abs/2010.04413v1
- Date: Fri, 9 Oct 2020 07:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:50:26.441895
- Title: A deep learning based interactive sketching system for fashion images
design
- Title(参考訳): ファッション画像設計のためのディープラーニングに基づくインタラクティブスケッチシステム
- Authors: Yao Li, Xianggang Yu, Xiaoguang Han, Nianjuan Jiang, Kui Jia, Jiangbo
Lu
- Abstract要約: ファッションスケッチとテクスチャ情報から,多様な高品質な衣料品画像をデザインするインタラクティブシステムを提案する。
このシステムの背後にある大きな課題は、ユーザが提供するテクスチャ情報に基づいて高品質で詳細なテクスチャを生成することである。
特に、テクスチャ化された衣料画像を合成する新しい二色エッジテクスチャ表現と、グレースケールエッジに基づいてシェーディングをレンダリングするシェーディングエンハンサーを提案する。
- 参考スコア(独自算出の注目度): 47.09122395308728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose an interactive system to design diverse high-quality
garment images from fashion sketches and the texture information. The major
challenge behind this system is to generate high-quality and detailed texture
according to the user-provided texture information. Prior works mainly use the
texture patch representation and try to map a small texture patch to a whole
garment image, hence unable to generate high-quality details. In contrast,
inspired by intrinsic image decomposition, we decompose this task into texture
synthesis and shading enhancement. In particular, we propose a novel bi-colored
edge texture representation to synthesize textured garment images and a shading
enhancer to render shading based on the grayscale edges. The bi-colored edge
representation provides simple but effective texture cues and color
constraints, so that the details can be better reconstructed. Moreover, with
the rendered shading, the synthesized garment image becomes more vivid.
- Abstract(参考訳): 本研究では,ファッションスケッチとテクスチャ情報から,多様な高品質な衣料品のイメージをデザインするインタラクティブシステムを提案する。
このシステムの主な課題は、ユーザが提供するテクスチャ情報に従って、高品質で詳細なテクスチャを生成することである。
以前はテクスチャパッチの表現を主に使用し、小さなテクスチャパッチを衣服全体のイメージにマッピングしようとしていたため、高品質な詳細を生成できなかった。
対照的に、本質的な画像分解に触発されて、このタスクをテクスチャ合成とシェーディング強化に分解する。
特に、テクスチャ化された衣料画像を合成する新しい二色エッジテクスチャ表現と、グレースケールエッジに基づいてシェーディングをレンダリングするシェーディングエンハンサーを提案する。
両色のエッジ表現は、シンプルだが効果的なテクスチャキューと色制約を提供しており、詳細をよりよく再構築することができる。
さらに、レンダリングシェーディングにより、合成された衣服画像がより鮮明になる。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map
Optimization and Physically-Based Rendering [53.70434741500702]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - DeepIron: Predicting Unwarped Garment Texture from a Single Image [9.427635404752934]
本稿では,1枚の写真から3次元衣料のテクスチャマップを再構築する新しい枠組みを提案する。
私たちのフレームワークのキーコンポーネントであるTexture Unwarperは、入力された衣料品画像から元のテクスチャイメージを推測する。
入力された衣服の本来のテクスチャを推定することにより、新しいポーズのためにリアルに変形した高品質なテクスチャ画像を表示することができる3D衣料モデルの再構築を支援する。
論文 参考訳(メタデータ) (2023-10-24T01:44:11Z) - Color and Texture Dual Pipeline Lightweight Style Transfer [1.1863107884314108]
スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
論文 参考訳(メタデータ) (2023-10-02T16:29:49Z) - Pyramid Texture Filtering [86.15126028139736]
目立った構造を保ちながらテクスチャをスムーズにするための,シンプルだが効果的な手法を提案する。
ガウスピラミッドの粗いレベルは、しばしば自然にテクスチャを排除し、主要な画像構造を要約する。
本手法は, 異なるスケール, 局所的なコントラスト, 形状のテクスチャから構造を分離する上で, 構造劣化や視覚的アーティファクトの導入を伴わずに有効であることを示す。
論文 参考訳(メタデータ) (2023-05-11T02:05:30Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。