論文の概要: Neural Image Beauty Predictor Based on Bradley-Terry Model
- arxiv url: http://arxiv.org/abs/2111.10127v1
- Date: Fri, 19 Nov 2021 09:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 22:08:58.477087
- Title: Neural Image Beauty Predictor Based on Bradley-Terry Model
- Title(参考訳): Bradley-Terryモデルに基づくニューラル画像美容予測器
- Authors: Shiyu Li and Hao Ma and Xiangyu Hu
- Abstract要約: 本研究は画像美容評価に焦点を当てている。
本研究では,Bradley-Terryモデルに基づくペアワイズ評価手法を用いた。
我々は,この手法が画像群内の他の画像評価方法よりも精度が高いと信じている。
- 参考スコア(独自算出の注目度): 10.394612532337373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image beauty assessment is an important subject of computer vision.
Therefore, building a model to mimic the image beauty assessment becomes an
important task. To better imitate the behaviours of the human visual system
(HVS), a complete survey about images of different categories should be
implemented. This work focuses on image beauty assessment. In this study, the
pairwise evaluation method was used, which is based on the Bradley-Terry model.
We believe that this method is more accurate than other image rating methods
within an image group. Additionally, Convolution neural network (CNN), which is
fit for image quality assessment, is used in this work. The first part of this
study is a survey about the image beauty comparison of different images. The
Bradley-Terry model is used for the calculated scores, which are the target of
CNN model. The second part of this work focuses on the results of the image
beauty prediction, including landscape images, architecture images and portrait
images. The models are pretrained by the AVA dataset to improve the performance
later. Then, the CNN model is trained with the surveyed images and
corresponding scores. Furthermore, this work compares the results of four CNN
base networks, i.e., Alex net, VGG net, Squeeze net and LSiM net, as discussed
in literature. In the end, the model is evaluated by the accuracy in pairs,
correlation coefficient and relative error calculated by survey results.
Satisfactory results are achieved by our proposed methods with about 70 percent
accuracy in pairs. Our work sheds more light on the novel image beauty
assessment method. While more studies should be conducted, this method is a
promising step.
- Abstract(参考訳): 画像美容評価はコンピュータビジョンの重要な課題である。
したがって、画像美容評価を模倣するモデルを構築することが重要な課題となる。
ヒト視覚システム(hvs)の動作をよりよく模倣するために、異なるカテゴリの画像に関する完全な調査を実施する必要がある。
本研究は画像美観評価に焦点をあてる。
本研究では,Bradley-Terryモデルに基づくペアワイズ評価手法を用いた。
我々は,この手法が画像グループ内の他の画像評価手法よりも正確であると信じている。
さらに、画像品質評価に適した畳み込みニューラルネットワーク(CNN)もこの研究で使用されている。
本研究の第1部は,画像の美しさ比較に関する調査である。
ブラッドリー・テリーモデルは、cnnモデルのターゲットである計算スコアに使用される。
本研究の第2部では、景観画像、建築画像、肖像画など、画像美容予測の結果に焦点を当てている。
モデルはAVAデータセットによって事前トレーニングされ、後でパフォーマンスが向上する。
そして、調査した画像と対応するスコアでcnnモデルを訓練する。
さらに、文献で議論されているように、4つのCNNベースネットワーク、すなわち、Alex net、VGG net、Squeeze net、LSiM netの結果を比較する。
最後に、対の精度、相関係数、調査結果から算出した相対誤差によってモデルを評価する。
提案手法により, 約70%の精度で満足度が得られた。
我々の研究は、新しい画像美容評価法にもっと光を当てている。
さらなる研究が必要であるが、この方法は有望なステップである。
関連論文リスト
- CorrEmbed: Evaluating Pre-trained Model Image Similarity Efficacy with a
Novel Metric [6.904776368895614]
我々は、CorrEmbedという新しいアプローチを用いて、事前訓練されたコンピュータビジョンモデルから画像埋め込みの有効性を評価する。
本研究では,画像埋め込みにおける距離と人為的タグベクトルにおける距離との相関を計算した。
また,このパターンからの逸脱を同定し,異なるモデルが高レベル画像の特徴をどのように捉えているかについての洞察を与える。
論文 参考訳(メタデータ) (2023-08-30T16:23:07Z) - Aesthetic Visual Question Answering of Photographs [15.83390933825182]
本稿では,画像の美的視覚的質問と回答(AVQA)という,美的言語評価の新しい課題を提案する。
目的QAペアは、提案した美的属性分析アルゴリズムによって生成される。
我々は,72,168の高品質画像と324,756対の審美的質問を含む,最初の審美的視覚的質問応答データセットであるAesVQAを構築した。
論文 参考訳(メタデータ) (2022-08-10T07:27:57Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Learning an Adaptation Function to Assess Image Visual Similarities [0.0]
ここでは、類推が重要となるとき、視覚的イメージ類似性を学ぶための特定のタスクに焦点を当てる。
本稿では,異なるスケールとコンテンツデータセットで事前学習した,教師付き,半教師付き,自己教師型ネットワークの比較を提案する。
The Totally Looks Like Image dataset conducted on the Totally Looks Like image highlight the interest of our method, by increase the search scores of the best model @1 by 2.25x。
論文 参考訳(メタデータ) (2022-06-03T07:15:00Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Application of Facial Recognition using Convolutional Neural Networks
for Entry Access Control [0.0]
本論文は,画像中の人物を入力として捉え,その人物を著者の1人か否かを分類する,教師付き分類問題の解決に焦点をあてる。
提案手法は,(1)WoodNetと呼ばれるニューラルネットワークをスクラッチから構築し,トレーニングすること,(2)ImageNetデータベース上に事前トレーニングされたネットワークを利用することで,転送学習を活用すること,の2つである。
結果は、データセット内の個人を高い精度で分類し、保持されたテストデータに対して99%以上の精度で達成する2つのモデルである。
論文 参考訳(メタデータ) (2020-11-23T07:55:24Z) - A Deep Drift-Diffusion Model for Image Aesthetic Score Distribution
Prediction [68.76594695163386]
画像から美的スコアの分布を予測するために,心理学者から着想を得たディープドリフト拡散モデルを提案する。
DDDモデルは、評価結果の伝統的なモデリングではなく、美的知覚の心理的プロセスを記述することができる。
私たちの新しいDDDモデルはシンプルだが効率的であり、美的スコア分布予測における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T11:01:46Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。