論文の概要: Words as Art Materials: Generating Paintings with Sequential GANs
- arxiv url: http://arxiv.org/abs/2007.04383v1
- Date: Wed, 8 Jul 2020 19:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:42:17.996904
- Title: Words as Art Materials: Generating Paintings with Sequential GANs
- Title(参考訳): アート素材としての言葉:連続GANによる絵画の生成
- Authors: Azmi Can \"Ozgen, Haz{\i}m Kemal Ekenel
- Abstract要約: 大規模な分散データセット上での芸術画像の生成について検討する。
このデータセットには、形状、色、内容など、バリエーションのあるイメージが含まれている。
本稿では,逐次生成適応型ネットワークモデルを提案する。
- 参考スコア(独自算出の注目度): 8.249180979158815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Converting text descriptions into images using Generative Adversarial
Networks has become a popular research area. Visually appealing images have
been generated successfully in recent years. Inspired by these studies, we
investigated the generation of artistic images on a large variance dataset.
This dataset includes images with variations, for example, in shape, color, and
content. These variations in images provide originality which is an important
factor for artistic essence. One major characteristic of our work is that we
used keywords as image descriptions, instead of sentences. As the network
architecture, we proposed a sequential Generative Adversarial Network model.
The first stage of this sequential model processes the word vectors and creates
a base image whereas the next stages focus on creating high-resolution
artistic-style images without working on word vectors. To deal with the
unstable nature of GANs, we proposed a mixture of techniques like Wasserstein
loss, spectral normalization, and minibatch discrimination. Ultimately, we were
able to generate painting images, which have a variety of styles. We evaluated
our results by using the Fr\'echet Inception Distance score and conducted a
user study with 186 participants.
- Abstract(参考訳): ジェネレーティブ・アドバイサル・ネットワークを用いた画像へのテキスト記述の変換が研究分野として人気を博している。
近年,視覚的に魅力的な画像が生成されている。
これらの研究に触発されて,大分散データセット上での芸術的画像の生成について検討した。
このデータセットには、形状、色、内容など、バリエーションのあるイメージが含まれている。
これらの画像のバリエーションは、芸術的本質の重要な要素である独創性をもたらす。
私たちの研究の大きな特徴は、文章ではなく、画像記述としてキーワードを使うことです。
ネットワークアーキテクチャとして,逐次生成適応型ネットワークモデルを提案する。
この逐次モデルの最初の段階はワードベクトルを処理してベース画像を生成するが、次の段階は単語ベクトルを使わずに高解像度の芸術的なイメージを作成することに焦点を当てる。
我々はganの不安定性に対処するため,wasserstein損失,スペクトル正規化,ミニバッチ識別などの混合手法を提案した。
最終的には、さまざまなスタイルの絵画画像を生成することができました。
fr\'echetインセプション距離スコアを用いて評価を行い,186名を対象にユーザ調査を行った。
関連論文リスト
- Beyond Color and Lines: Zero-Shot Style-Specific Image Variations with Coordinated Semantics [3.9717825324709413]
スタイルは、主に色、ブラシストローク、照明といった芸術的要素の観点から検討されてきた。
本研究では,コーディネート・セマンティクスを用いた画像変化のためのゼロショット・スキームを提案する。
論文 参考訳(メタデータ) (2024-10-24T08:34:57Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Semantic Draw Engineering for Text-to-Image Creation [2.615648035076649]
そこで本研究では,人工知能モデルをテーマ創造性に活用する手法を提案する。
この手法では、画像を作成する前に、すべての視覚要素を定量データ構造に変換する。
提案手法の有効性を,意味的精度,画像効率,計算効率の観点から評価する。
論文 参考訳(メタデータ) (2023-12-23T05:35:15Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Diffusion idea exploration for art generation [0.10152838128195467]
拡散モデルは最近、クロスモーダルデータを用いた画像生成タスクにおいて、他の生成モデルよりも優れています。
このタスクの新たな画像生成の初期実験は、有望な質的結果を示した。
論文 参考訳(メタデータ) (2023-07-11T02:35:26Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Dual Pyramid Generative Adversarial Networks for Semantic Image
Synthesis [94.76988562653845]
セマンティック画像合成の目標は、セマンティックラベルマップからフォトリアリスティック画像を生成することである。
しかし、現在の最先端のアプローチは、さまざまなスケールで画像で現実的なオブジェクトを生成するのに依然として苦労している。
本研究では,空間適応型正規化ブロックの条件付けを各スケールで同時に学習するDual Pyramid Generative Adversarial Network (DP-GAN)を提案する。
論文 参考訳(メタデータ) (2022-10-08T18:45:44Z) - IR-GAN: Image Manipulation with Linguistic Instruction by Increment
Reasoning [110.7118381246156]
Incrment Reasoning Generative Adversarial Network (IR-GAN)は、画像における視覚的インクリメントと命令における意味的インクリメントとの整合性を推論することを目的としている。
まず,単語レベルと命令レベルの命令エンコーダを導入し,履歴関連命令からユーザの意図を意味的インクリメントとして学習する。
第2に、対象画像を生成するために、意味的インクリメントの表現をソースイメージに組み込んで、ソースイメージが補助的参照の役割を担っている。
論文 参考訳(メタデータ) (2022-04-02T07:48:39Z) - Generating Compositional Color Representations from Text [3.141061579698638]
画像検索エンジン上のユーザクエリのかなりの部分が(属性、オブジェクト)構造に従っているという事実に触発され、このような大局的な色プロファイルを生成する生成逆ネットワークを提案する。
コンポジションを学ぶためにパイプラインを設計します - 見た属性とオブジェクトを、目に見えないペアに組み合わせる機能です。
論文 参考訳(メタデータ) (2021-09-22T01:37:13Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。