論文の概要: TexControl: Sketch-Based Two-Stage Fashion Image Generation Using Diffusion Model
- arxiv url: http://arxiv.org/abs/2405.04675v1
- Date: Tue, 7 May 2024 21:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 15:54:51.466502
- Title: TexControl: Sketch-Based Two-Stage Fashion Image Generation Using Diffusion Model
- Title(参考訳): TexControl:拡散モデルを用いたスケッチベース2段階ファッション画像生成
- Authors: Yongming Zhang, Tianyu Zhang, Haoran Xie,
- Abstract要約: ディープラーニングに基づくスケッチ・トゥ・クロース画像生成は、ファッションデザインプロセスの初期設計とインスピレーションを提供する。
しかし, フリーハンドドローイングからの着物生成は, 図面の粗さや曖昧さから困難である。
本稿では、2段階のパイプラインを用いてスケッチ入力に対応するファッション画像を生成するスケッチベースのファッション生成フレームワークであるTexControlを提案する。
- 参考スコア(独自算出の注目度): 12.02717427825073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based sketch-to-clothing image generation provides the initial designs and inspiration in the fashion design processes. However, clothing generation from freehand drawing is challenging due to the sparse and ambiguous information from the drawn sketches. The current generation models may have difficulty generating detailed texture information. In this work, we propose TexControl, a sketch-based fashion generation framework that uses a two-stage pipeline to generate the fashion image corresponding to the sketch input. First, we adopt ControlNet to generate the fashion image from sketch and keep the image outline stable. Then, we use an image-to-image method to optimize the detailed textures of the generated images and obtain the final results. The evaluation results show that TexControl can generate fashion images with high-quality texture as fine-grained image generation.
- Abstract(参考訳): ディープラーニングに基づくスケッチ・トゥ・クロース画像生成は、ファッションデザインプロセスの初期設計とインスピレーションを提供する。
しかし, フリーハンドドローイングからの着物生成は, 図面の粗さや曖昧さから困難である。
現在の世代モデルは、詳細なテクスチャ情報を生成するのが困難である。
本研究では、2段階のパイプラインを用いてスケッチ入力に対応するファッション画像を生成するスケッチベースのファッション生成フレームワークであるTexControlを提案する。
まず、スケッチからファッションイメージを生成し、画像のアウトラインを安定に保つために、ControlNetを採用します。
そして,画像の詳細なテクスチャを最適化し,最終的な結果を得る。
評価結果から,TexControlはきめ細かい画像生成として,質の高いテクスチャでファッション画像を生成することができることがわかった。
関連論文リスト
- Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - Block and Detail: Scaffolding Sketch-to-Image Generation [70.34211439488223]
アーティストの反復的な洗練プロセスと整合する新しいスケッチ・ツー・イメージ・ツールを提案する。
私たちのツールは、ブロックされたストロークをスケッチして、オブジェクトの配置や形を粗く表現し、詳細なストロークを表現して、形やシルエットを洗練します。
反復過程の任意の点において、そのようなスケッチから高忠実度画像を生成するための2パスアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-28T07:09:31Z) - SketchFFusion: Sketch-guided image editing with diffusion model [25.63913085329606]
スケッチ誘導画像編集は、ユーザが提供するスケッチ情報に基づいて、画像の局所的な微調整を実現することを目的としている。
本稿では,画像の主輪郭を保存し,実際のスケッチスタイルに忠実に適合するスケッチ生成手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T15:54:18Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Sketch-Guided Scenery Image Outpainting [83.6612152173028]
本稿では,スケッチ誘導露光を行うエンコーダデコーダに基づくネットワークを提案する。
全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に, 合成した部分からスケッチを逆向きに生成し, 接地した部分との整合性を奨励する。
論文 参考訳(メタデータ) (2020-06-17T11:34:36Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。