論文の概要: Jamdani Motif Generation using Conditional GAN
- arxiv url: http://arxiv.org/abs/2212.11824v1
- Date: Thu, 22 Dec 2022 16:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:52:16.936290
- Title: Jamdani Motif Generation using Conditional GAN
- Title(参考訳): 条件付きGANを用いたジャムダニモチーフ生成
- Authors: MD Tanvir Rouf Shawon, Raihan Tanvir, Humaira Ferdous Shifa, Susmoy
Kar, Mohammad Imrul Jubair
- Abstract要約: 我々は,Jamdaniモチーフのコレクションから,完全に新しいJamdaniパターンを生成する方法を開発した。
ユーザーは、粗いストロークという観点から、望ましいパターンのスケルトンを入力できる。
本システムでは, 実ジャムダニの幾何学的構造に従う完全モチーフを生成することにより, 入力を確定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Jamdani is the strikingly patterned textile heritage of Bangladesh. The
exclusive geometric motifs woven on the fabric are the most attractive part of
this craftsmanship having a remarkable influence on textile and fine art. In
this paper, we have developed a technique based on the Generative Adversarial
Network that can learn to generate entirely new Jamdani patterns from a
collection of Jamdani motifs that we assembled, the newly formed motifs can
mimic the appearance of the original designs. Users can input the skeleton of a
desired pattern in terms of rough strokes and our system finalizes the input by
generating the complete motif which follows the geometric structure of real
Jamdani ones. To serve this purpose, we collected and preprocessed a dataset
containing a large number of Jamdani motifs images from authentic sources via
fieldwork and applied a state-of-the-art method called pix2pix to it. To the
best of our knowledge, this dataset is currently the only available dataset of
Jamdani motifs in digital format for computer vision research. Our experimental
results of the pix2pix model on this dataset show satisfactory outputs of
computer-generated images of Jamdani motifs and we believe that our work will
open a new avenue for further research.
- Abstract(参考訳): ジャムダニ(jamdani)はバングラデシュの繊維遺産である。
織物に織られた排他的な幾何学的モチーフは、織物や美術に顕著な影響を与えたこの工芸の最も魅力的な部分である。
本稿では,ジャムダニモチーフの集合から全く新しいジャムダニパターンを生成できることを学習し,新たなモチーフがオリジナルデザインの外観を模倣する手法を開発した。
ユーザは大まかなストロークで所望のパターンの骨格を入力でき、実際のジャムダニの幾何学的構造に従って完全なモチーフを生成することで入力を確定する。
この目的のために,フィールドワークにより多数のJamdaniモチーフ画像を含むデータセットを収集・前処理し,pix2pixと呼ばれる最先端の手法を適用した。
我々の知る限り、このデータセットは現在、コンピュータビジョン研究のためのデジタルフォーマットにおけるJamdaniモチーフの唯一のデータセットである。
このデータセット上のpix2pixモデルの実験結果は、コンピュータで生成されたジャムダニモチーフの画像の十分な出力を示しており、我々の研究がさらなる研究のための新しい道を開くと信じている。
関連論文リスト
- Style-Extracting Diffusion Models for Semi-Supervised Histopathology Segmentation [6.479933058008389]
スタイル抽出拡散モデルでは、下流タスクに有用な特徴のない画像を生成する。
本研究では,概念実証として自然画像データセット上での手法の有効性を示す。
患者間でのセグメンテーション結果の改善と性能変動の低減を図り, 得られた画像の付加価値を検証する。
論文 参考訳(メタデータ) (2024-03-21T14:36:59Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Textile Pattern Generation Using Diffusion Models [0.0]
本研究は,テクスト指導による織物パターン生成のための微調整拡散モデルを提案する。
提案した微調整拡散モデルは,テキストガイダンスによる織物パターン生成におけるパターン品質と効率の観点から,ベースラインモデルより優れる。
論文 参考訳(メタデータ) (2023-04-02T12:12:24Z) - Self-Distilled StyleGAN: Towards Generation from Internet Photos [47.28014076401117]
本稿では,インターネットから収集した未処理画像に対して,StyleGANをどのように適応させるかを示す。
本稿では,2つの主成分からなるスタイルGANを用いた自己蒸留法を提案する。
提案手法は,データの多様性の損失を最小限に抑えつつ,高品質な画像の生成を可能にする。
論文 参考訳(メタデータ) (2022-02-24T17:16:47Z) - SketchEmbedNet: Learning Novel Concepts by Imitating Drawings [125.45799722437478]
モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
論文 参考訳(メタデータ) (2020-08-27T16:43:28Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z) - KaoKore: A Pre-modern Japanese Art Facial Expression Dataset [8.987910033541239]
近代日本美術品から抽出された顔からなる新しいデータセットKaoKoreを提案する。
画像分類のためのデータセットとしての価値と、生成モデルを用いて探索する創造的で芸術的なデータセットとしての価値を実証する。
論文 参考訳(メタデータ) (2020-02-20T07:22:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。