論文の概要: Creative Portraiture: Exploring Creative Adversarial Networks and Conditional Creative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2412.07091v1
- Date: Tue, 10 Dec 2024 01:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:38:29.443846
- Title: Creative Portraiture: Exploring Creative Adversarial Networks and Conditional Creative Adversarial Networks
- Title(参考訳): Creative Portraiture: Creative Adversarial Networks and Conditional Creative Adversarial Networks
- Authors: Sebastian Hereu, Qianfei Hu,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、生成的対向ネットワーク(GAN)と組み合わせて、深層畳み込み生成的対向ネットワーク(DCGAN)を作成する。
DCGANはファッションデザインや絵画といった創造的な領域から画像やビデオを生成するために使われてきた。
我々はDCGAN, Creative Adversarial Network (CANs)の拡張を探究する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Convolutional neural networks (CNNs) have been combined with generative adversarial networks (GANs) to create deep convolutional generative adversarial networks (DCGANs) with great success. DCGANs have been used for generating images and videos from creative domains such as fashion design and painting. A common critique of the use of DCGANs in creative applications is that they are limited in their ability to generate creative products because the generator simply learns to copy the training distribution. We explore an extension of DCGANs, creative adversarial networks (CANs). Using CANs, we generate novel, creative portraits, using the WikiArt dataset to train the network. Moreover, we introduce our extension of CANs, conditional creative adversarial networks (CCANs), and demonstrate their potential to generate creative portraits conditioned on a style label. We argue that generating products that are conditioned, or inspired, on a style label closely emulates real creative processes in which humans produce imaginative work that is still rooted in previous styles.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、生成的敵ネットワーク(GAN)と組み合わせて、深い畳み込み生成的敵ネットワーク(DCGAN)を創り、大きな成功を収めている。
DCGANはファッションデザインや絵画といった創造的な領域から画像やビデオを生成するために使われてきた。
クリエイティブアプリケーションにおけるDCGANの使用に対する一般的な批判は、ジェネレータが単にトレーニング分布をコピーすることを学ぶため、創造的な製品を生成する能力に制限があることである。
我々は,DCGAN,CAN(Creative Adversarial Network)の拡張について検討する。
CANを用いて、WikiArtデータセットを使用して、ネットワークをトレーニングする、斬新で創造的な肖像画を生成する。
さらに,CANの拡張,条件付き創造的敵ネットワーク(CCAN)を導入し,スタイルラベルに条件付けされた創造的肖像画を作成する可能性を実証した。
スタイルラベルに条件付けされた、あるいはインスピレーションを受けた製品を生成することは、人間がまだ以前のスタイルに根ざした想像的な仕事を生み出す実際の創造的プロセスを密にエミュレートする、と我々は主張する。
関連論文リスト
- Automating Creativity [1.0200170217746136]
本稿では,AIを創造的から創造的へと進化させるために必要なものについて考察する。
我々は,GenAIの創造的能力を開発するために,3つの迅速な応答・逆エンジニアリングフレームワークを開発する。
論文 参考訳(メタデータ) (2024-05-11T05:05:10Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - A New Creative Generation Pipeline for Click-Through Rate with Stable
Diffusion Model [8.945197427679924]
従来のAIベースのアプローチは、デザイナーからの美的知識を限定しながら、ユーザー情報を考慮しないという同じ問題に直面している。
結果を最適化するために、従来の方法で生成されたクリエイティブは、クリエイティブランキングモデルと呼ばれる別のモジュールによってランク付けされる。
本稿では,クリエイティビティ生成段階においてCTRを改善することを目的とした,Click-Through Rate (CG4CTR) のための新しいCreative Generationパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-17T03:27:39Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - DC-Art-GAN: Stable Procedural Content Generation using DC-GANs for
Digital Art [4.9631159466100305]
我々は,安定かつ異質なアートジェネレーションのために,敵対的な訓練を施した深層生成ネットワークのコンセプトを提唱する。
この研究は主に、DC-GAN(Deep Convolutional Generative Adversarial Network)の使用に焦点を当て、GANトレーニングにおける共通の落とし穴に対処する技術を探っている。
論文 参考訳(メタデータ) (2022-09-06T23:06:46Z) - Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning [64.6217849133164]
創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2022-03-01T15:07:14Z) - Exploring Latent Dimensions of Crowd-sourced Creativity [0.02294014185517203]
私たちは、AIベースの最大のクリエイティビティプラットフォームであるArtbreederの開発を行っています。
このプラットフォーム上で生成された画像の潜在次元を探索し、画像を操作するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-13T19:24:52Z) - Towards creativity characterization of generative models via group-based
subset scanning [51.84144826134919]
創造的プロセスを定量化し,検出し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセットをまたいだ通常または非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2021-04-01T14:07:49Z) - Creative Sketch Generation [48.16835161875747]
クリエイティブなスケッチのデータセットであるCreative BirdsとCreative Creaturesの2つを紹介します。
DoodlerGAN (Generative Adrial Network, GAN) を提案する。
人間の研究と同様に定量的評価は、我々のアプローチによって生成されたスケッチは、既存のアプローチよりも創造的で高品質であることを示している。
論文 参考訳(メタデータ) (2020-11-19T18:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。