論文の概要: Predicting Scores of Various Aesthetic Attribute Sets by Learning from
Overall Score Labels
- arxiv url: http://arxiv.org/abs/2312.03222v1
- Date: Wed, 6 Dec 2023 01:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 16:15:43.820413
- Title: Predicting Scores of Various Aesthetic Attribute Sets by Learning from
Overall Score Labels
- Title(参考訳): 総合スコアラベルから学習した各種美的属性集合のスコア予測
- Authors: Heng Huang, Xin Jin, Yaqi Liu, Hao Lou, Chaoen Xiao, Shuai Cui,
Xinning Li, Dongqing Zou
- Abstract要約: 本稿では,画像属性ラベルを特徴抽出器に置き換えることを提案する。
異なるタスクのネットワークを使用して、F2Sモデルに属性機能を提供します。
本手法は, 各種の美的属性セットに対して, 総合的な美的スコアのみを用いて有意な属性スコアを学習できるようにする。
- 参考スコア(独自算出の注目度): 54.63611854474985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Now many mobile phones embed deep-learning models for evaluation or guidance
on photography. These models cannot provide detailed results like human pose
scores or scene color scores because of the rare of corresponding aesthetic
attribute data. However, the annotation of image aesthetic attribute scores
requires experienced artists and professional photographers, which hinders the
collection of large-scale fully-annotated datasets. In this paper, we propose
to replace image attribute labels with feature extractors. First, a novel
aesthetic attribute evaluation framework based on attribute features is
proposed to predict attribute scores and overall scores. We call it the F2S
(attribute features to attribute scores) model. We use networks from different
tasks to provide attribute features to our F2S models. Then, we define an
aesthetic attribute contribution to describe the role of aesthetic attributes
throughout an image and use it with the attribute scores and the overall scores
to train our F2S model. Sufficient experiments on publicly available datasets
demonstrate that our F2S model achieves comparable performance with those
trained on the datasets with fully-annotated aesthetic attribute score labels.
Our method makes it feasible to learn meaningful attribute scores for various
aesthetic attribute sets in different types of images with only overall
aesthetic scores.
- Abstract(参考訳): 現在、多くの携帯電話は写真の評価や指導のためにディープラーニングモデルを組み込んでいる。
これらのモデルは、対応する美的属性データに乏しいため、人間のポーズスコアやシーンカラースコアなどの詳細な結果を提供することができない。
しかし、画像美的属性スコアのアノテーションは経験豊富なアーティストやプロの写真家を必要とし、大規模な完全注釈付きデータセットの収集を妨げる。
本稿では,画像属性ラベルを特徴抽出器に置き換えることを提案する。
まず,属性特徴に基づく新規な美的属性評価フレームワークを提案し,属性スコアと全体スコアを予測する。
これをF2S(属性スコアの属性)モデルと呼ぶ。
異なるタスクのネットワークを使用して、F2Sモデルに属性機能を提供する。
次に、画像全体における美的属性の役割を記述するための美的属性コントリビューションを定義し、その属性スコアと総合スコアを用いてF2Sモデルをトレーニングする。
公開されているデータセットに対する十分な実験により、私たちのF2Sモデルは、完全に注釈付けされた美的属性スコアラベルでトレーニングされたデータセットと同等のパフォーマンスを達成しています。
本手法は, 各種の美的属性セットに対して, 総合的な美的スコアのみを用いて有意な属性スコアを学習できるようにする。
関連論文リスト
- UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images [16.647573404422175]
画像の絶対属性と相対属性の両方をモデル化する統一多属性美意識評価フレームワーク(UMAAF)を提案する。
UMAAFは、TAD66KとAVAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-19T11:57:01Z) - Aesthetic Attributes Assessment of Images with AMANv2 and DPC-CaptionsV2 [65.5524793975387]
DPC-CaptionsV2という新しいデータセットを半自動で構築する。
DPC-CaptionsV2の画像には、合成、照明、色、主題の4つの美的属性を含む。
本手法は,従来のAMANモデルよりも美的トピックに近い4つの美的属性に対するコメントを予測できる。
論文 参考訳(メタデータ) (2022-08-09T03:20:59Z) - Aesthetic Attribute Assessment of Images Numerically on Mixed
Multi-attribute Datasets [16.120684660965978]
我々は、属性(AMD-A)を用いた美的混合データセットと呼ばれる画像属性データセットを構築し、融合のための外部属性特徴を設計する。
我々のモデルは、美的分類、総合評価、属性スコアを達成できる。
MindSporeを用いた実験結果から,本手法は審美的総合評価と属性評価を効果的に改善できることが示された。
論文 参考訳(メタデータ) (2022-07-05T04:42:10Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - Composition and Style Attributes Guided Image Aesthetic Assessment [66.60253358722538]
本稿では,画像の美学を自動予測する手法を提案する。
提案ネットワークには,意味的特徴抽出のための事前学習ネットワーク(Backbone)と,画像属性の予測にBackbone機能に依存するマルチレイヤパーセプトロン(MLP)ネットワーク(AttributeNet)が含まれる。
画像が与えられた場合、提案するマルチネットワークは、スタイルと構成属性、および美的スコア分布を予測できる。
論文 参考訳(メタデータ) (2021-11-08T17:16:38Z) - Learning to Infer Unseen Attribute-Object Compositions [55.58107964602103]
単一属性と多属性オブジェクトの両方を柔軟に認識できるグラフベースモデルを提案する。
我々は116,099の画像と8,030の合成カテゴリを持つ大規模マルチ属性データセットを構築した。
論文 参考訳(メタデータ) (2020-10-27T14:57:35Z) - Joint Item Recommendation and Attribute Inference: An Adaptive Graph
Convolutional Network Approach [61.2786065744784]
レコメンデーションシステムでは、ユーザとアイテムは属性に関連付けられ、ユーザはアイテムの好みを表示する。
ユーザ(item)属性をアノテートすることは労働集約的なタスクであるため、属性値が欠落している多くの属性値と不完全であることが多い。
本稿では,共同項目推薦と属性推論のための適応グラフ畳み込みネットワーク(AGCN)アプローチを提案する。
論文 参考訳(メタデータ) (2020-05-25T10:50:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。