論文の概要: Exploring CNN-based models for image's aesthetic score prediction with
using ensemble
- arxiv url: http://arxiv.org/abs/2210.05119v1
- Date: Tue, 11 Oct 2022 03:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:02:47.978047
- Title: Exploring CNN-based models for image's aesthetic score prediction with
using ensemble
- Title(参考訳): アンサンブルを用いた画像の美的スコア予測のためのCNNモデルの検討
- Authors: Ying Dai
- Abstract要約: 我々は,CNNアーキテクチャの異なる2種類の自動画像美学評価モデルを構築する枠組みを提案した。
画像に対するモデルの注意領域を抽出し、画像中の被写体との整合性を分析する。
XiHeAAデータセットでトレーニングされたAS分類モデルは、潜在的な写真原理を学習しているように見えるが、美学を習得しているとは言えない。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we proposed a framework of constructing two types of the
automatic image aesthetics assessment models with different CNN architectures
and improving the performance of the image's aesthetic score prediction by the
ensemble. Moreover, the attention regions of the models to the images are
extracted to analyze the consistency with the subjects in the images. The
experimental results verify that the proposed method is effective for improving
the AS prediction. Moreover, it is found that the AS classification models
trained on XiheAA dataset seem to learn the latent photography principles,
although it can't be said that they learn the aesthetic sense.
- Abstract(参考訳): 本稿では,異なるCNNアーキテクチャを用いた2種類の自動画像美学評価モデルの構築と,アンサンブルによる画像の美学スコア予測の性能向上のための枠組みを提案する。
さらに、画像中の被写体との整合性を分析するために、画像に対するモデルの注意領域を抽出する。
実験の結果,提案手法がAS予測の改善に有効であることが確認された。
さらに、XiHeAAデータセットでトレーニングされたAS分類モデルは、美学を習得したとは言えず、潜在的な写真原理を学習しているように見える。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Evaluating the Reliability of CNN Models on Classifying Traffic and Road
Signs using LIME [1.188383832081829]
本研究は,これらのモデルの予測精度と,画像分類に適切な特徴を利用する能力を評価することに焦点を当てた。
モデル予測の強みと限界に関する洞察を得るために、この研究は局所的解釈可能なモデルに依存しない説明(LIME)フレームワークを用いている。
論文 参考訳(メタデータ) (2023-09-11T18:11:38Z) - Image Aesthetics Assessment via Learnable Queries [59.313054821874864]
本稿では,IAA-LQを用いた画像美学評価手法を提案する。
フリーズされた画像エンコーダから得られた事前訓練された画像特徴から、学習可能なクエリを適応して美的特徴を抽出する。
実世界のデータに関する実験では、IAA-LQの利点が示され、SRCCとPLCCでそれぞれ2.2%、そして2.1%が最先端の手法に勝っている。
論文 参考訳(メタデータ) (2023-09-06T09:42:16Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Image Aesthetics Assessment Using Graph Attention Network [17.277954886018353]
画像美学評価のためのグラフニューラルネットワークに基づく2段階のフレームワークを提案する。
まず、入力画像がグラフとしてモデル化され、元のアスペクト比と解像度を維持する特徴グラフ表現を提案する。
次に,この特徴グラフを用いて,視覚的注意を用いて入力画像の異なる領域間の意味的関係をキャプチャするグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-26T12:52:46Z) - Prompt-based Learning for Unpaired Image Captioning [86.44188293709307]
Unpaired Image Captioning (UIC) は、非整合視覚言語サンプルペアから画像記述を学習するために開発された。
近年のVision-Language Pre-Trained Models (VL-PTMs) の成功は、プロンプトベース学習の発展を引き起こしている。
本稿では,UICモデルをトレーニングするためのプロンプトに基づく新しいスキームを提案し,その強力な一般化能力を最大限に活用する。
論文 参考訳(メタデータ) (2022-05-26T03:13:43Z) - Composition and Style Attributes Guided Image Aesthetic Assessment [66.60253358722538]
本稿では,画像の美学を自動予測する手法を提案する。
提案ネットワークには,意味的特徴抽出のための事前学習ネットワーク(Backbone)と,画像属性の予測にBackbone機能に依存するマルチレイヤパーセプトロン(MLP)ネットワーク(AttributeNet)が含まれる。
画像が与えられた場合、提案するマルチネットワークは、スタイルと構成属性、および美的スコア分布を予測できる。
論文 参考訳(メタデータ) (2021-11-08T17:16:38Z) - Exploring to establish an appropriate model for mage aesthetic
assessment via CNN-based RSRL: An empirical study [3.8073142980733]
CNNの最終層FCノードの絡み合い度を反映したD尺度を導入する。
複数の写真スコア予測モデルから最適なモデルを決定するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T03:20:00Z) - A Deep Drift-Diffusion Model for Image Aesthetic Score Distribution
Prediction [68.76594695163386]
画像から美的スコアの分布を予測するために,心理学者から着想を得たディープドリフト拡散モデルを提案する。
DDDモデルは、評価結果の伝統的なモデリングではなく、美的知覚の心理的プロセスを記述することができる。
私たちの新しいDDDモデルはシンプルだが効率的であり、美的スコア分布予測における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T11:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。