論文の概要: Predicting beauty, liking, and aesthetic quality: A comparative analysis
of image databases for visual aesthetics research
- arxiv url: http://arxiv.org/abs/2307.00984v1
- Date: Mon, 3 Jul 2023 13:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 13:10:25.975177
- Title: Predicting beauty, liking, and aesthetic quality: A comparative analysis
of image databases for visual aesthetics research
- Title(参考訳): 美, 嗜好, 美的品質の予測 : 視覚美学研究のための画像データベースの比較分析
- Authors: Ralf Bartho, Katja Thoemmes and Christoph Redies
- Abstract要約: 対象認識のために開発された畳み込みニューラルネットワークの層を, (A) 先行研究された20の統計画像特性の集合を用いて, 連続して評価を予測できるかを検討する。
以上の結果から,各データセットにおける審美評価の予測可能性に有意な変化が認められた。
意外なことに、統計的画像特性と畳み込みニューラルネットワークは、類似した精度で美的評価を予測し、この2つの手法が捉えた画像情報の顕著な重複を浮き彫りにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the fields of Experimental and Computational Aesthetics, numerous image
datasets have been created over the last two decades. In the present work, we
provide a comparative overview of twelve image datasets that include aesthetic
ratings (beauty, liking or aesthetic quality) and investigate the
reproducibility of results across different datasets. Specifically, we examine
how consistently the ratings can be predicted by using either (A) a set of 20
previously studied statistical image properties, or (B) the layers of a
convolutional neural network developed for object recognition. Our findings
reveal substantial variation in the predictability of aesthetic ratings across
the different datasets. However, consistent similarities were found for
datasets containing either photographs or paintings, suggesting different
relevant features in the aesthetic evaluation of these two image genres. To our
surprise, statistical image properties and the convolutional neural network
predict aesthetic ratings with similar accuracy, highlighting a significant
overlap in the image information captured by the two methods. Nevertheless, the
discrepancies between the datasets call into question the generalizability of
previous research findings on single datasets. Our study underscores the
importance of considering multiple datasets to improve the validity and
generalizability of research results in the fields of experimental and
computational aesthetics.
- Abstract(参考訳): 実験的および計算的美学の分野では、過去20年間で多数の画像データセットが作成されている。
本研究は,美的評価(美容,嗜好,美的品質)を含む12の画像データセットを比較し,異なるデータセット間での結果の再現性について検討する。
具体的には、(A)以前に研究された20の統計画像特性の集合、または(B)オブジェクト認識のために開発された畳み込みニューラルネットワークの層を用いて、評価がいかに一貫して予測できるかを検討する。
以上の結果から,各データセットにおける審美評価の予測可能性に大きな変化が認められた。
しかし、写真や絵画を含むデータセットには一貫した類似性が見られ、これら2つの画像ジャンルの審美的評価において異なる特徴が示唆された。
意外なことに、統計的画像特性と畳み込みニューラルネットワークは、類似した精度で美的評価を予測し、2つの手法が捉えた画像情報の顕著な重複を強調した。
しかしながら、データセット間の相違は、単一のデータセットにおける以前の研究結果の一般化可能性に疑問を投げかける。
本研究は、実験および計算美学の分野における研究結果の有効性と一般化性を改善するために、複数のデータセットを検討することの重要性を強調した。
関連論文リスト
- Visual Motif Identification: Elaboration of a Curated Comparative Dataset and Classification Methods [4.431754853927668]
映画では、視覚的なモチーフは、芸術的または美的な意味を持つ反復的な図形的構成である。
私たちのゴールは、これらのモチーフを認識して分類することであり、その目的にカスタムデータセットを使用する新しい機械学習モデルを提案することです。
CLIPモデルから抽出した機能を、浅いネットワークと適切な損失を用いて、20の異なるモチーフに分類し、驚くほど良い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-21T10:50:00Z) - Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - Blind Dates: Examining the Expression of Temporality in Historical
Photographs [57.07335632641355]
マルチモーダル言語とビジョンモデルであるCLIPのオープンソース実装であるOpenCLIPを用いて、画像の日付を調査する。
我々は1950年から1999年までの39,866枚のグレースケールの歴史的プレス写真を含むtextitDe Boer Scene Detectionデータセットを使用している。
解析の結果、バス、車、猫、犬、そして人々が写っている画像はより正確に年代付けされており、時間的マーカーの存在が示唆されている。
論文 参考訳(メタデータ) (2023-10-10T13:51:24Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images [7.868449549351487]
本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-03-24T16:33:06Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Through a fair looking-glass: mitigating bias in image datasets [1.0323063834827415]
目的変数間の統計的依存を最小化し,画像データセットを非バイアス化するための高速かつ効果的なモデルを提案する。
提案手法をCelebAデータセット上で評価し、その結果を最先端のデバイアス法と比較し、そのモデルが有望なフェアネスと精度の組み合わせを達成することを示す。
論文 参考訳(メタデータ) (2022-09-18T20:28:36Z) - Learning an Adaptation Function to Assess Image Visual Similarities [0.0]
ここでは、類推が重要となるとき、視覚的イメージ類似性を学ぶための特定のタスクに焦点を当てる。
本稿では,異なるスケールとコンテンツデータセットで事前学習した,教師付き,半教師付き,自己教師型ネットワークの比較を提案する。
The Totally Looks Like Image dataset conducted on the Totally Looks Like image highlight the interest of our method, by increase the search scores of the best model @1 by 2.25x。
論文 参考訳(メタデータ) (2022-06-03T07:15:00Z) - Dataset Bias in Few-shot Image Recognition [57.25445414402398]
まず,基本カテゴリから学習した伝達可能能力の影響について検討する。
第2に、データセット構造と異なる少数ショット学習方法から、異なるデータセットのパフォーマンス差について検討する。
論文 参考訳(メタデータ) (2020-08-18T14:46:23Z) - Unsupervised Learning of Landmarks based on Inter-Intra Subject
Consistencies [72.67344725725961]
本稿では,物体間ランドマーク成分を顔画像に組み込むことにより,画像ランドマーク発見のための教師なし学習手法を提案する。
これは、補助的な主題関連構造に基づいて、元の主題のランドマークを変換するオブジェクト間マッピングモジュールによって達成される。
変換された画像から元の被写体に戻るために、ランドマーク検出器は、対のオブジェクト内画像と対のオブジェクト間画像の両方に一貫した意味を含む空間的位置を学習せざるを得ない。
論文 参考訳(メタデータ) (2020-04-16T20:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。