論文の概要: Seizing the Means of Production: Exploring the Landscape of Crafting, Adapting and Navigating Generative AI Models in the Visual Arts
- arxiv url: http://arxiv.org/abs/2404.17688v1
- Date: Fri, 26 Apr 2024 20:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 19:50:27.870688
- Title: Seizing the Means of Production: Exploring the Landscape of Crafting, Adapting and Navigating Generative AI Models in the Visual Arts
- Title(参考訳): 生産の意味を理解する:視覚芸術における創造的AIモデルの作成、適応、誘導の風景を探る
- Authors: Ahmed M. Abuzuraiq, Philippe Pasquier,
- Abstract要約: 私たちは、制作、適応、深層生成モデルのナビゲートなど、パーソナルアートワークを作成するために、ビジュアルアーティストが利用できる選択肢のランドスケープをマップします。
我々は、創造目標のための生成モデルの設計と操作として定義されたモデル作成を再考し、独自の創造活動としてモデル作成のための研究と設計を動機付けている。
- 参考スコア(独自算出の注目度): 6.349140286855134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we map out the landscape of options available to visual artists for creating personal artworks, including crafting, adapting and navigating deep generative models. Following that, we argue for revisiting model crafting, defined as the design and manipulation of generative models for creative goals, and motivate studying and designing for model crafting as a creative activity in its own right.
- Abstract(参考訳): 本稿では, ビジュアルアーティストが, 制作, 適応, ナビゲートなど, パーソナルアートワークを作成するための選択肢の展望を地図化する。
その後、創造目標のための生成モデルの設計と操作として定義されたモデル作成を再考し、独自の創造活動としてモデル作成の研究と設計を動機付ける。
関連論文リスト
- Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - Automatic Generation of Fashion Images using Prompting in Generative Machine Learning Models [1.8817715864806608]
本研究では、2つの異なる大言語モデルと、ファッション画像作成のための安定拡散モデルを用いて、カスタマイズされたファッション記述を生成する手法について検討する。
AI駆動のファッションクリエイティビティにおける適応性を強調して、ゼロショットや少数ショット学習といったテクニックの促進に重点を置いています。
評価は、CLIPscoreのような定量的メトリクスと質的な人間の判断を組み合わせることで、創造性、コヒーレンス、さまざまなスタイルの美的魅力を強調します。
論文 参考訳(メタデータ) (2024-07-20T17:37:51Z) - Stylebreeder: Exploring and Democratizing Artistic Styles through Text-to-Image Models [38.5896770458884]
我々はArtbreeder上で95Kユーザによって生成された6.8Mイメージと1.8Mプロンプトの包括的なデータセットであるtextttSTYLEBREEDERを紹介した。
サイバーパンクやピカソといった従来のカテゴリを超越したユニークなユーザ生成スタイルを文書化することによって,ユニークなクラウドソーススタイルの可能性を探る。
本研究は,ユニークな表現の発見と促進を目的としたテキスト・画像拡散モデルの可能性を示すものである。
論文 参考訳(メタデータ) (2024-06-20T17:59:56Z) - Human Aesthetic Preference-Based Large Text-to-Image Model
Personalization: Kandinsky Generation as an Example [4.744780823386797]
本稿では,パーソナライズされた絵画コンテンツを自動的に生成する,プロンプトフリーな生成手法を提案する。
アーティストモデル生成画像に対するユーザの美的評価と嗜好を頼りにすることで、ユーザをパーソナライズしたモデルにする。
論文 参考訳(メタデータ) (2024-02-09T13:11:19Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - DreamCreature: Crafting Photorealistic Virtual Creatures from
Imagination [140.1641573781066]
ターゲット概念のラベルなしイメージのセットを前提として、我々は、新しいハイブリッド概念を創出できるT2Iモデルをトレーニングすることを目指している。
そこで我々はDreamCreatureと呼ばれる新しい手法を提案し,その基盤となるサブ概念を同定し抽出する。
したがって、T2Iは忠実な構造とフォトリアリスティックな外観を持つ新しい概念を生成するのに適応する。
論文 参考訳(メタデータ) (2023-11-27T01:24:31Z) - DoodleFormer: Creative Sketch Drawing with Transformers [68.18953603715514]
創造的スケッチ(Creative sketching)またはドゥーリング(Duodling)は、日常の視覚的物体の想像的かつ以前は目に見えない描写が描かれた表現的活動である。
本稿では,クリエイティビティスケッチ生成問題を粗いスケッチ合成に分解する,粗い2段階のフレームワークDoodleFormerを提案する。
生成した創作スケッチの多様性を確保するため,確率論的粗いスケッチデコーダを導入する。
論文 参考訳(メタデータ) (2021-12-06T18:59:59Z) - CreativeGAN: Editing Generative Adversarial Networks for Creative Design
Synthesis [1.933681537640272]
本論文では,新しいデザインを作成するための自動手法であるCreativeGANを提案する。
デザインをユニークなものにするコンポーネントを識別し、GANモデルを変更することで、識別されたユニークなコンポーネントでデザインを生成する可能性が高まる。
自転車デザインのデータセットを用いて,ユニークなフレームとハンドル,および幅広いデザインの珍しいノベルティを備えた新しい自転車デザインを作成できることを実証した。
論文 参考訳(メタデータ) (2021-03-10T18:22:35Z) - SketchEmbedNet: Learning Novel Concepts by Imitating Drawings [125.45799722437478]
モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
論文 参考訳(メタデータ) (2020-08-27T16:43:28Z) - Modeling Artistic Workflows for Image Generation and Editing [83.43047077223947]
与えられた芸術的ワークフローに従う生成モデルを提案する。
既存の芸術作品の多段画像編集だけでなく、多段画像生成も可能である。
論文 参考訳(メタデータ) (2020-07-14T17:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。