論文の概要: Unveiling The Factors of Aesthetic Preferences with Explainable AI
- arxiv url: http://arxiv.org/abs/2311.14410v1
- Date: Fri, 24 Nov 2023 11:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:27:06.560380
- Title: Unveiling The Factors of Aesthetic Preferences with Explainable AI
- Title(参考訳): 説明可能なAIによる美的嗜好の要因の解明
- Authors: Derya Soydaner and Johan Wagemans
- Abstract要約: 本研究の目的は,画像の美的嗜好の複雑な性質を機械学習によって明らかにすることである。
我々は,Random Forest,XGBoost,Support Vector Regression,Multilayer Perceptronなどの機械学習モデルを用いて,美的スコアを正確に予測する。
我々は3つの画像美的ベンチマーク実験を行い、属性の役割とその相互作用に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The allure of aesthetic appeal in images captivates our senses, yet the
underlying intricacies of aesthetic preferences remain elusive. In this study,
we pioneer a novel perspective by utilizing machine learning models that focus
on aesthetic attributes known to influence preferences. Through a data mining
approach, our models process these attributes as inputs to predict the
aesthetic scores of images. Moreover, to delve deeper and obtain interpretable
explanations regarding the factors driving aesthetic preferences, we utilize
the popular Explainable AI (XAI) technique known as SHapley Additive
exPlanations (SHAP). Our methodology involves employing various machine
learning models, including Random Forest, XGBoost, Support Vector Regression,
and Multilayer Perceptron, to compare their performances in accurately
predicting aesthetic scores, and consistently observing results in conjunction
with SHAP. We conduct experiments on three image aesthetic benchmarks,
providing insights into the roles of attributes and their interactions.
Ultimately, our study aims to shed light on the complex nature of aesthetic
preferences in images through machine learning and provides a deeper
understanding of the attributes that influence aesthetic judgements.
- Abstract(参考訳): イメージにおける美的魅力の魅力は私たちの感覚を魅了するが、美的嗜好の根底にある複雑さはいまだに解明されていない。
本研究では,好みに影響を及ぼす美的属性に着目した機械学習モデルを用いて,新しい視点を開拓する。
データマイニングアプローチを通じて,これらの属性を入力として処理し,画像の美的スコアを予測する。
さらに,美的嗜好の要因を深く掘り下げ,解釈可能な説明を得るためには,SHAP(SHapley Additive exPlanations)として知られる一般的な説明可能なAI(XAI)技術を利用する。
提案手法では,ランダムフォレスト,xgboost,サポートベクタ回帰,多層パーセプトロンなど様々な機械学習モデルを用いて,美的スコアを正確に予測し,shapと共に結果を一貫して観察する。
我々は3つの画像美的ベンチマーク実験を行い、属性の役割とその相互作用に関する洞察を提供する。
最終的には、機械学習によって画像における審美的嗜好の複雑な性質を解明し、審美的判断に影響を及ぼす属性をより深く理解することを目的としている。
関連論文リスト
- Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - AesExpert: Towards Multi-modality Foundation Model for Image Aesthetics Perception [74.11069437400398]
我々は,21,904の多様なソースイメージと88Kの人間の自然言語フィードバックを備えたコーパスリッチな審美的批評データベースを開発した。
AesExpertと呼ばれる、マルチモダリティのAesthetic Expertモデルを実現するために、オープンソースの一般基盤モデルを微調整します。
実験により、提案したAesExpertモデルは、最先端のMLLMよりもはるかに優れた審美的知覚性能を提供することが示された。
論文 参考訳(メタデータ) (2024-04-15T09:56:20Z) - AesBench: An Expert Benchmark for Multimodal Large Language Models on
Image Aesthetics Perception [64.25808552299905]
AesBenchはMLLMの審美的知覚能力の総合評価を目的とした専門家ベンチマークである。
本稿では,プロの審美専門家が提供した多彩な画像内容と高品質なアノテーションを特徴とするEAPD(Expert-labeled Aesthetics Perception Database)を構築した。
本稿では,知覚(AesP),共感(AesE),評価(AesA),解釈(AesI)の4つの視点からMLLMの審美的知覚能力を測定するための統合的基準を提案する。
論文 参考訳(メタデータ) (2024-01-16T10:58:07Z) - Predicting Scores of Various Aesthetic Attribute Sets by Learning from
Overall Score Labels [54.63611854474985]
本稿では,画像属性ラベルを特徴抽出器に置き換えることを提案する。
異なるタスクのネットワークを使用して、F2Sモデルに属性機能を提供します。
本手法は, 各種の美的属性セットに対して, 総合的な美的スコアのみを用いて有意な属性スコアを学習できるようにする。
論文 参考訳(メタデータ) (2023-12-06T01:41:49Z) - UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images [16.647573404422175]
画像の絶対属性と相対属性の両方をモデル化する統一多属性美意識評価フレームワーク(UMAAF)を提案する。
UMAAFは、TAD66KとAVAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-19T11:57:01Z) - Image Aesthetics Assessment via Learnable Queries [59.313054821874864]
本稿では,IAA-LQを用いた画像美学評価手法を提案する。
フリーズされた画像エンコーダから得られた事前訓練された画像特徴から、学習可能なクエリを適応して美的特徴を抽出する。
実世界のデータに関する実験では、IAA-LQの利点が示され、SRCCとPLCCでそれぞれ2.2%、そして2.1%が最先端の手法に勝っている。
論文 参考訳(メタデータ) (2023-09-06T09:42:16Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Personalized Image Aesthetics Assessment with Rich Attributes [35.61053167813472]
我々は、パーソナライズされた画像美学の最も包括的な主観的研究を行い、Rich Attributes (PARA) を用いたパーソナライズされた画像美学データベースを導入する。
PARAは、9つの画像指向の目的属性と4つの人間指向の主観的属性を含む、リッチなアノテーションを備えている。
また,条件付きPIAAモデルも提案する。
論文 参考訳(メタデータ) (2022-03-31T02:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。