論文の概要: Inventing painting styles through natural inspiration
- arxiv url: http://arxiv.org/abs/2305.12015v1
- Date: Fri, 19 May 2023 21:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:25:57.877053
- Title: Inventing painting styles through natural inspiration
- Title(参考訳): 自然のインスピレーションによる絵画様式の創出
- Authors: Nilin Abrahamsen, Jiahao Yao
- Abstract要約: 本研究では,自然画像のみに基づいて学習したモデルを用いて,絵画スタイルを作成する2つの手法を提案する。
第1の手順では、創造的な表現を達成するために、芸術媒体からの帰納バイアスを用いる。
第2の手順では、新たなスタイルを作るためのインスピレーションとして、追加の自然なイメージを使用する。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose two procedures to create painting styles using models trained only
on natural images, providing objective proof that the model is not plagiarizing
human art styles. In the first procedure we use the inductive bias from the
artistic medium to achieve creative expression. Abstraction is achieved by
using a reconstruction loss. The second procedure uses an additional natural
image as inspiration to create a new style. These two procedures make it
possible to invent new painting styles with no artistic training data. We
believe that our approach can help pave the way for the ethical employment of
generative AI in art, without infringing upon the originality of human
creators.
- Abstract(参考訳): 自然画像のみに基づいて訓練されたモデルを用いて絵画スタイルを作成するための2つの手法を提案する。
第1の手順では,芸術媒体からの帰納バイアスを用いて創造的な表現を実現する。
抽象化は再構築損失を用いて達成される。
第2の手順では、新たなスタイルを作成するために、追加の自然イメージをインスピレーションとして使用する。
これら2つの手順により、芸術的な訓練データなしで新しい絵画様式を創出することができる。
われわれのアプローチは、人間の創造者の独創性を侵害することなく、芸術における生成AIの倫理的雇用の道を開くのに役立つと信じている。
関連論文リスト
- IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
本稿では,拡散モデルのみによって生成された特徴を用いて,スタイル帰属問題を解決するための学習自由フレームワークを提案する。
これはイントロスペクティブなスタイル属性(IntroStyle)と表現され、スタイル検索の最先端モデルよりも優れたパフォーマンスを示す。
また,芸術的スタイルを分離し,きめ細かなスタイル帰属性能を評価するために,スタイルハック(SHacks)の合成データセットも導入した。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - Art-Free Generative Models: Art Creation Without Graphic Art Knowledge [50.60063523054282]
美術関連コンテンツへのアクセスなしに訓練されたテキスト・画像生成モデルを提案する。
そこで我々は,選択した芸術スタイルのごく一部の例を用いて,シンプルな,かつ効果的なアートアダプタの学習方法を提案する。
論文 参考訳(メタデータ) (2024-11-29T18:59:01Z) - Rethinking Artistic Copyright Infringements in the Era of Text-to-Image Generative Models [47.19481598385283]
ArtSavantは、ウィキアートの作品の参照データセットと比較することで、アーティストのユニークなスタイルを決定するツールである。
そこで我々は,3つの人気テキスト・画像生成モデルにまたがる芸術的スタイルの複製の頻度を定量的に把握するために,大規模な実証的研究を行った。
論文 参考訳(メタデータ) (2024-04-11T17:59:43Z) - Human Aesthetic Preference-Based Large Text-to-Image Model
Personalization: Kandinsky Generation as an Example [4.744780823386797]
本稿では,パーソナライズされた絵画コンテンツを自動的に生成する,プロンプトフリーな生成手法を提案する。
アーティストモデル生成画像に対するユーザの美的評価と嗜好を頼りにすることで、ユーザをパーソナライズしたモデルにする。
論文 参考訳(メタデータ) (2024-02-09T13:11:19Z) - Learning to Evaluate the Artness of AI-generated Images [64.48229009396186]
アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
論文 参考訳(メタデータ) (2023-05-08T17:58:27Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - Can There be Art Without an Artist? [1.2691047660244335]
ジェネレーティブAIベースのアートは、この1年で急増している。
本稿では,ジェネレーティブ・モデルが芸術にどのような影響を及ぼしたかを考察する。
レスポンシブルにデプロイすれば、AI生成モデルは、アートにおいてポジティブで新しいモダリティになる可能性があると仮定する。
論文 参考訳(メタデータ) (2022-09-16T01:23:19Z) - Art Creation with Multi-Conditional StyleGANs [81.72047414190482]
人間のアーティストは、独特のスキル、理解、そして深い感情や感情を引き起こすアートワークを作る真の意図の組み合わせが必要です。
本研究では,多条件生成支援ネットワーク(GAN)アプローチを導入し,人間の芸術を模倣する現実的な絵画を合成する。
論文 参考訳(メタデータ) (2022-02-23T20:45:41Z) - Artistic Style in Robotic Painting; a Machine Learning Approach to
Learning Brushstroke from Human Artists [7.906207218788341]
本研究では,ヒトアーティストとのコラボレーションを通じて,筆跡と絵画プロセスに芸術的スタイルを統合する手法を提案する。
予備調査では、人間の評価者の71%が、再構築されたブラシストロークが、アーティストのスタイルの特徴に関連していることを発見した。
論文 参考訳(メタデータ) (2020-07-07T17:35:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。