論文の概要: Synthesis of Batik Motifs using a Diffusion -- Generative Adversarial
Network
- arxiv url: http://arxiv.org/abs/2307.12122v1
- Date: Sat, 22 Jul 2023 16:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 18:00:45.407072
- Title: Synthesis of Batik Motifs using a Diffusion -- Generative Adversarial
Network
- Title(参考訳): 拡散-生成逆数ネットワークを用いたBatikモチーフの合成
- Authors: One Octadion, Novanto Yudistira, Diva Kurnianingtyas
- Abstract要約: スタイルGAN2-AdaとDiffusionは現実的な合成バティックパターンを生成するために使用される。
主な目的は、バティックデザイナーや職人が独自で質の高いバティックモチーフを作るのを支援することである。
- 参考スコア(独自算出の注目度): 2.191505742658975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Batik, a unique blend of art and craftsmanship, is a distinct artistic and
technological creation for Indonesian society. Research on batik motifs is
primarily focused on classification. However, further studies may extend to the
synthesis of batik patterns. Generative Adversarial Networks (GANs) have been
an important deep learning model for generating synthetic data, but often face
challenges in the stability and consistency of results. This research focuses
on the use of StyleGAN2-Ada and Diffusion techniques to produce realistic and
high-quality synthetic batik patterns. StyleGAN2-Ada is a variation of the GAN
model that separates the style and content aspects in an image, whereas
diffusion techniques introduce random noise into the data. In the context of
batik, StyleGAN2-Ada and Diffusion are used to produce realistic synthetic
batik patterns. This study also made adjustments to the model architecture and
used a well-curated batik dataset. The main goal is to assist batik designers
or craftsmen in producing unique and quality batik motifs with efficient
production time and costs. Based on qualitative and quantitative evaluations,
the results show that the model tested is capable of producing authentic and
quality batik patterns, with finer details and rich artistic variations. The
dataset and code can be accessed
here:https://github.com/octadion/diffusion-stylegan2-ada-pytorch
- Abstract(参考訳): 芸術と工芸のユニークなブレンドであるバティックは、インドネシア社会の芸術的、技術的に異なる創造物である。
batikモチーフの研究は主に分類に焦点を当てている。
しかし、さらなる研究はバティックパターンの合成にまで及ぶかもしれない。
generative adversarial network (gans) は、合成データを生成する上で重要なディープラーニングモデルであるが、結果の安定性と一貫性においてしばしば課題に直面している。
本研究は,StyleGAN2-AdaおよびDiffusion技術を用いて,現実的で高品質な合成バティックパターンを生成することに焦点を当てる。
StyleGAN2-Adaは、画像のスタイルと内容の側面を分離するGANモデルのバリエーションである。
batik の文脈では、stylegan2-ada と diffusion は現実的な合成 batik パターンを生成するために使われる。
この研究はモデルアーキテクチャの調整も行い、よく計算されたバティックデータセットを使用した。
主な目標は、バティックデザイナーや職人が独特で高品質なバティックモチーフを効率的な生産時間とコストで生産することを支援することである。
定性的かつ定量的な評価結果から,本モデルでは,より細かな細部と豊かな芸術的バリエーションで,真正かつ高品質なバティックパターンを生成可能であることが示された。
データセットとコードはここでアクセスできる。https://github.com/octadion/diffusion-stylegan2-ada-pytorch
関連論文リスト
- Synth-SONAR: Sonar Image Synthesis with Enhanced Diversity and Realism via Dual Diffusion Models and GPT Prompting [0.0]
本研究では,新しいソナー画像合成フレームワーク,Synth-SONARを提案する。
まず、ジェネレーティブAIベースのスタイルインジェクション技術と、公開されている実/シミュレーションデータを統合する。
第二に、二重テキスト条件ソナー拡散モデル階層は、粗くきめ細かなソナー画像を品質と多様性を向上して合成する。
第3に、高レベル(粗度)と低レベル(詳細)のテキストベースのソナー生成手法は、視覚言語モデル(VLM)とGPTプロンプトで利用可能な高度な意味情報を活用する。
論文 参考訳(メタデータ) (2024-10-11T08:27:25Z) - DreamDA: Generative Data Augmentation with Diffusion Models [68.22440150419003]
本稿では,新しい分類指向フレームワークDreamDAを提案する。
DreamDAは、オリジナルのデータのトレーニングイメージを種として考慮して、オリジナルのデータ分布に準拠する多様なサンプルを生成する。
また、生成したデータのラベルは、対応するシード画像のラベルと一致しない可能性があるため、擬似ラベルを生成するための自己学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-03-19T15:04:35Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - Textile Pattern Generation Using Diffusion Models [0.0]
本研究は,テクスト指導による織物パターン生成のための微調整拡散モデルを提案する。
提案した微調整拡散モデルは,テキストガイダンスによる織物パターン生成におけるパターン品質と効率の観点から,ベースラインモデルより優れる。
論文 参考訳(メタデータ) (2023-04-02T12:12:24Z) - PaCaNet: A Study on CycleGAN with Transfer Learning for Diversifying
Fused Chinese Painting and Calligraphy [8.724826658340415]
PaCaNetはCycleGANベースのパイプラインで、伝統的な中国絵画と書道の2つの異なる種類のアートを融合させる新しいアートワークを制作する。
われわれのアプローチは、中国語のヒエログリフ文字の起源に根ざした独特の美的体験を生み出す。
論文 参考訳(メタデータ) (2023-01-30T17:22:10Z) - Jamdani Motif Generation using Conditional GAN [0.0]
我々は,Jamdaniモチーフのコレクションから,完全に新しいJamdaniパターンを生成する方法を開発した。
ユーザーは、粗いストロークという観点から、望ましいパターンのスケルトンを入力できる。
本システムでは, 実ジャムダニの幾何学的構造に従う完全モチーフを生成することにより, 入力を確定する。
論文 参考訳(メタデータ) (2022-12-22T16:02:44Z) - Training-Free Structured Diffusion Guidance for Compositional
Text-to-Image Synthesis [78.28620571530706]
大規模拡散モデルはテキスト・ツー・イメージ合成(T2I)タスクの最先端の結果を得た。
我々は,T2Iモデルの合成スキル,特により正確な属性結合と画像合成を改善する。
論文 参考訳(メタデータ) (2022-12-09T18:30:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。