論文の概要: Learning to Evaluate the Artness of AI-generated Images
- arxiv url: http://arxiv.org/abs/2305.04923v2
- Date: Sun, 9 Jun 2024 16:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 05:48:34.436909
- Title: Learning to Evaluate the Artness of AI-generated Images
- Title(参考訳): AI生成画像の質を評価するための学習
- Authors: Junyu Chen, Jie An, Hanjia Lyu, Christopher Kanan, Jiebo Luo,
- Abstract要約: アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
- 参考スコア(独自算出の注目度): 64.48229009396186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assessing the artness of AI-generated images continues to be a challenge within the realm of image generation. Most existing metrics cannot be used to perform instance-level and reference-free artness evaluation. This paper presents ArtScore, a metric designed to evaluate the degree to which an image resembles authentic artworks by artists (or conversely photographs), thereby offering a novel approach to artness assessment. We first blend pre-trained models for photo and artwork generation, resulting in a series of mixed models. Subsequently, we utilize these mixed models to generate images exhibiting varying degrees of artness with pseudo-annotations. Each photorealistic image has a corresponding artistic counterpart and a series of interpolated images that range from realistic to artistic. This dataset is then employed to train a neural network that learns to estimate quantized artness levels of arbitrary images. Extensive experiments reveal that the artness levels predicted by ArtScore align more closely with human artistic evaluation than existing evaluation metrics, such as Gram loss and ArtFID.
- Abstract(参考訳): AI生成画像の精度を評価することは、画像生成の領域における課題であり続けている。
ほとんどの既存のメトリクスは、インスタンスレベルと参照なしのArtness評価の実行には使用できません。
本論文は,アーティストによる絵画(あるいは逆に写真)に画像が類似する程度を評価するための尺度であるArtScoreを提示し,アートネス評価に新たなアプローチを提案する。
まず、写真とアートワークの生成のために事前訓練されたモデルをブレンドし、一連の混合モデルを作成します。
その後、これらの混合モデルを用いて、擬似アノテーションによる様々な芸術性を示す画像を生成する。
それぞれのフォトリアリスティック画像は、対応する芸術的相手と、現実的から芸術的な一連の補間された画像を持つ。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
大規模な実験により、ArtScoreが予測した芸術性レベルが、グラマー損失やArtFIDといった既存の評価指標よりも、人間の芸術的評価とより密接に一致していることが明らかになった。
関連論文リスト
- AI Art Neural Constellation: Revealing the Collective and Contrastive
State of AI-Generated and Human Art [36.21731898719347]
我々は、人間の芸術遺産の文脈内でAI生成芸術を位置づけるための包括的な分析を行う。
私たちの比較分析は、ArtConstellationと呼ばれる広範なデータセットに基づいています。
鍵となる発見は、1800-2000年に作られた現代美術の原理とAIが生成したアートアートが視覚的に関連していることである。
論文 参考訳(メタデータ) (2024-02-04T11:49:51Z) - Learning Subject-Aware Cropping by Outpainting Professional Photos [69.0772948657867]
本稿では,高品質な主観的作物を生産する要因を,プロのストックイメージから学習するための弱教師付きアプローチを提案する。
私たちの洞察は、ストックイメージのライブラリと、最新のトレーニング済みのテキスト-画像拡散モデルを組み合わせることです。
我々は、収穫された無作為のトレーニングペアの大規模なデータセットを自動的に生成して、収穫モデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-12-19T11:57:54Z) - Painterly Image Harmonization by Learning from Painterly Objects [35.23590833646526]
美術絵画の絵画的対象に基づいて,背景のスタイルや物体情報から物体のスタイルへのマッピングを学習する。
学習したマッピングにより、エンコーダ特徴写像を調和させて調和した画像を生成するために使用される複合オブジェクトのターゲットスタイルを幻覚することができる。
論文 参考訳(メタデータ) (2023-12-15T23:36:44Z) - ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and
Implicit Style Prompt Bank [9.99530386586636]
アートスタイルの転送は、学習したアートスタイルでコンテンツイメージを再描画することを目的としている。
既存のスタイル転送手法は、小さなモデルベースアプローチと、事前訓練された大規模モデルベースアプローチの2つのカテゴリに分けられる。
本研究では,高度にリアルなスタイライズされた画像を生成するために,アートバンクという新しいスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T05:53:40Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Towards Artistic Image Aesthetics Assessment: a Large-scale Dataset and
a New Method [64.40494830113286]
まず、Boldbrush Artistic Image dataset (BAID)という大規模なAIAAデータセットを紹介します。
そこで我々は,芸術的イメージを評価するために,スタイル特異的で汎用的な美的情報を効果的に抽出し,活用する新たな手法であるSAANを提案する。
実験により,提案手法は提案したBAIDデータセット上で既存のIAA手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-03-27T12:59:15Z) - Language Does More Than Describe: On The Lack Of Figurative Speech in
Text-To-Image Models [63.545146807810305]
テキスト・ツー・イメージ拡散モデルでは、テキスト入力プロンプトから高品質な画像を生成することができる。
これらのモデルは、コンテンツベースのラベル付けプロトコルから収集されたテキストデータを用いて訓練されている。
本研究では,現在使用されているテキスト・画像拡散モデルのトレーニングに使用されている公開テキストデータの感情性,目的性,抽象化の程度を特徴付ける。
論文 参考訳(メタデータ) (2022-10-19T14:20:05Z) - CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning [77.27821665339492]
CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T13:28:17Z) - Art Style Classification with Self-Trained Ensemble of AutoEncoding
Transformations [5.835728107167379]
絵画の芸術的スタイルは豊かな記述物であり、アーティストが創造的なビジョンをどのように表現し表現するかについての視覚的知識と深い本質的な知識の両方を明らかにする。
本稿では,高度な自己指導型学習手法を用いて,クラス内およびクラス間変動の少ない複雑な芸術的スタイルを認識することの課題を解決する。
論文 参考訳(メタデータ) (2020-12-06T21:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。