論文の概要: A Framework and Dataset for Abstract Art Generation via CalligraphyGAN
- arxiv url: http://arxiv.org/abs/2012.00744v1
- Date: Wed, 2 Dec 2020 16:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 06:49:37.257961
- Title: A Framework and Dataset for Abstract Art Generation via CalligraphyGAN
- Title(参考訳): CalligraphyGANによる抽象アート生成のためのフレームワークとデータセット
- Authors: Jinggang Zhuo, Ling Fan, Harry Jiannan Wang
- Abstract要約: 本研究では,コンディショナル・ジェネレーティブ・アドバイザリ・ネットワークと文脈ニューラル言語モデルに基づく創造的枠組みを提示し,抽象アートワークを生成する。
私たちの作品は中国書道に触発され、字そのものが美的絵画である独特の視覚芸術形式である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advancement of deep learning, artificial intelligence (AI) has made
many breakthroughs in recent years and achieved superhuman performance in
various tasks such as object detection, reading comprehension, and video games.
Generative Modeling, such as various Generative Adversarial Networks (GAN)
models, has been applied to generate paintings and music. Research in Natural
Language Processing (NLP) also had a leap forward in 2018 since the release of
the pre-trained contextual neural language models such as BERT and recently
released GPT3. Despite the exciting AI applications aforementioned, AI is still
significantly lagging behind humans in creativity, which is often considered
the ultimate moonshot for AI. Our work is inspired by Chinese calligraphy,
which is a unique form of visual art where the character itself is an aesthetic
painting. We also draw inspirations from paintings of the Abstract
Expressionist movement in the 1940s and 1950s, such as the work by American
painter Franz Kline. In this paper, we present a creative framework based on
Conditional Generative Adversarial Networks and Contextual Neural Language
Model to generate abstract artworks that have intrinsic meaning and aesthetic
value, which is different from the existing work, such as image captioning and
text-to-image generation, where the texts are the descriptions of the images.
In addition, we have publicly released a Chinese calligraphy image dataset and
demonstrate our framework using a prototype system and a user study.
- Abstract(参考訳): ディープラーニングの進歩により、人工知能(AI)は近年多くのブレークスルーを行い、オブジェクト検出、読書理解、ビデオゲームといった様々なタスクにおいて超人的パフォーマンスを達成した。
GAN(Generative Adversarial Networks)モデルのような生成モデリングは、絵画や音楽の生成に応用されている。
自然言語処理(nlp)の研究も、bertや最近リリースされたgpt3といった事前学習されたコンテキストニューラル言語モデルのリリース以降、2018年に飛躍的に進展した。
前述のようなエキサイティングなAIアプリケーションにもかかわらず、AIは創造性において人間よりもはるかに遅れている。
私たちの作品は、キャラクターそのものが美的絵画である独特の視覚芸術である中国書に触発されたものです。
1940年代から1950年代にかけての抽象表現主義運動の絵画、例えばアメリカの画家フランツ・クラインの作品からもインスピレーションを得ている。
本稿では,条件付き生成敵ネットワークと文脈ニューラルランゲージモデルに基づく創造的枠組みを提案する。テキストが画像の記述である画像キャプションやテキスト対画像生成といった既存の作業とは異なる,本質的な意味と美的価値を持つ抽象的なアートワークを生成する。
また,中国の書道イメージデータセットを公開し,プロトタイプシステムとユーザスタディを用いて,そのフレームワークを実証した。
関連論文リスト
- Autoregressive Models in Vision: A Survey [119.23742136065307]
本調査は、視覚に適用される自己回帰モデルに関する文献を包括的に調査する。
視覚的自己回帰モデルを,画素ベース,トークンベース,スケールベースを含む3つの一般的なサブカテゴリに分割する。
本稿では,画像生成,映像生成,3D生成,マルチモーダル生成など,コンピュータビジョンにおける自己回帰モデルの多面的分類を提案する。
論文 参考訳(メタデータ) (2024-11-08T17:15:12Z) - No Longer Trending on Artstation: Prompt Analysis of Generative AI Art [7.64671395172401]
私たちは300万以上のプロンプトとそれらが生成する画像を収集し、分析します。
本研究は, 表面美学, 文化規範の強化, 一般的な表現, イメージに重点を置いていることを示す。
論文 参考訳(メタデータ) (2024-01-24T08:03:13Z) - Artistic Strategies to Guide Neural Networks [0.0]
本稿では、画像、テキスト、フォーム、セミオティック空間の翻訳という文脈において、現在のAI技術の可能性と限界について考察する。
比較的短時間で高解像度画像と3Dオブジェクトの生成が達成された。
またしても、アートワークがテクノロジー開発の触媒となる様子が見られます。
論文 参考訳(メタデータ) (2023-07-06T22:57:10Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - AIwriting: Relations Between Image Generation and Digital Writing [0.0]
2022年、GPT-3のようなAIテキスト生成システムとDALL-E 2のようなAIテキスト・画像生成システムは飛躍的に飛躍した。
このパネルでは、電子文学の著者や理論家のグループが、これらのシステムによって提示される人間の創造性のための新しいオプポー・ツニティについて検討している。
論文 参考訳(メタデータ) (2023-05-18T09:23:05Z) - Language Does More Than Describe: On The Lack Of Figurative Speech in
Text-To-Image Models [63.545146807810305]
テキスト・ツー・イメージ拡散モデルでは、テキスト入力プロンプトから高品質な画像を生成することができる。
これらのモデルは、コンテンツベースのラベル付けプロトコルから収集されたテキストデータを用いて訓練されている。
本研究では,現在使用されているテキスト・画像拡散モデルのトレーニングに使用されている公開テキストデータの感情性,目的性,抽象化の程度を特徴付ける。
論文 参考訳(メタデータ) (2022-10-19T14:20:05Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - On Advances in Text Generation from Images Beyond Captioning: A Case
Study in Self-Rationalization [89.94078728495423]
近年のモダリティ,CLIP画像表現,言語モデルの拡張は,マルチモーダル入力によるタスクのマルチモーダル自己調整を一貫して改善していないことを示す。
画像キャプションを超えて画像やテキストからテキストを生成するために構築可能なバックボーンモデリング手法が提案されている。
論文 参考訳(メタデータ) (2022-05-24T00:52:40Z) - A Taxonomy of Prompt Modifiers for Text-To-Image Generation [6.903929927172919]
本稿では,3ヶ月のエスノグラフィー研究に基づいて,オンラインコミュニティの実践者が使用する6種類のプロンプト修飾剤を同定する。
プロンプト修飾子の新たな分類法は、テキスト・ツー・イメージ・ジェネレーションの実践を研究するための概念的な出発点となる。
本稿では,人間-コンピュータインタラクション分野における新しい創造的実践の機会について論じる。
論文 参考訳(メタデータ) (2022-04-20T06:15:50Z) - GAN Computers Generate Arts? A Survey on Visual Arts, Music, and
Literary Text Generation using Generative Adversarial Network [0.0]
本調査では, 視覚芸術, 音楽, 文学テキストの生成にGANを用いた最近の作品について考察する。
GANを使ったアートジェネレーションにおける重要な課題のいくつかは、今後の作業の推奨とともに強調されている。
論文 参考訳(メタデータ) (2021-08-09T07:59:04Z) - State of the Art on Neural Rendering [141.22760314536438]
我々は,古典的コンピュータグラフィックス技術と深層生成モデルを組み合わせることで,制御可能かつフォトリアリスティックな出力を得るアプローチに焦点をあてる。
本報告は,新しいビュー合成,セマンティック写真操作,顔と身体の再現,リライティング,自由視点ビデオ,バーチャルおよび拡張現実テレプレゼンスのためのフォトリアリスティックアバターの作成など,記述されたアルゴリズムの多くの重要なユースケースに焦点をあてる。
論文 参考訳(メタデータ) (2020-04-08T04:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。