論文の概要: UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images
- arxiv url: http://arxiv.org/abs/2311.11306v1
- Date: Sun, 19 Nov 2023 11:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 21:11:30.720535
- Title: UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images
- Title(参考訳): UMAAF:画像の多面的属性による美学の展開
- Authors: Weijie Li, Yitian Wan, Xingjiao Wu, Junjie Xu, Liang He
- Abstract要約: 画像の絶対属性と相対属性の両方をモデル化する統一多属性美意識評価フレームワーク(UMAAF)を提案する。
UMAAFは、TAD66KとAVAデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 14.060601053248241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing prevalence of smartphones and websites, Image Aesthetic
Assessment (IAA) has become increasingly crucial. While the significance of
attributes in IAA is widely recognized, many attribute-based methods lack
consideration for the selection and utilization of aesthetic attributes. Our
initial step involves the acquisition of aesthetic attributes from both intra-
and inter-perspectives. Within the intra-perspective, we extract the direct
visual attributes of images, constituting the absolute attribute. In the
inter-perspective, our focus lies in modeling the relative score relationships
between images within the same sequence, forming the relative attribute. Then,
to better utilize image attributes in aesthetic assessment, we propose the
Unified Multi-attribute Aesthetic Assessment Framework (UMAAF) to model both
absolute and relative attributes of images. For absolute attributes, we
leverage multiple absolute-attribute perception modules and an
absolute-attribute interacting network. The absolute-attribute perception
modules are first pre-trained on several absolute-attribute learning tasks and
then used to extract corresponding absolute attribute features. The
absolute-attribute interacting network adaptively learns the weight of diverse
absolute-attribute features, effectively integrating them with generic
aesthetic features from various absolute-attribute perspectives and generating
the aesthetic prediction. To model the relative attribute of images, we
consider the relative ranking and relative distance relationships between
images in a Relative-Relation Loss function, which boosts the robustness of the
UMAAF. Furthermore, UMAAF achieves state-of-the-art performance on TAD66K and
AVA datasets, and multiple experiments demonstrate the effectiveness of each
module and the model's alignment with human preference.
- Abstract(参考訳): スマートフォンやウェブサイトの普及に伴い、画像美容アセスメント(IAA)はますます重要になっている。
IAAにおける属性の重要性は広く認識されているが、多くの属性に基づく手法では美的属性の選択と利用について考慮されていない。
最初のステップは、パースペクティブとインタースペクティブの両方から美的属性を取得することです。
本研究では,画像の直接的視覚特性を抽出し,絶対的属性を構成する。
inter-perspectiveでは、同じシーケンス内の画像間の相対スコア関係をモデル化し、相対属性を形成することに重点を置いている。
次に,画像属性の美的評価をよりよく活用するために,画像の絶対的属性と相対的属性の両方をモデル化する統一多属性美的評価フレームワーク(umaaf)を提案する。
絶対属性に対しては,複数の絶対属性認識モジュールと絶対属性相互作用ネットワークを利用する。
絶対属性認識モジュールは、まずいくつかの絶対属性学習タスクで事前訓練され、その後、対応する絶対属性の特徴を抽出するために使用される。
絶対属性相互作用ネットワークは、多様な絶対属性特徴の重みを適応的に学習し、それらを様々な絶対属性視点から汎用的な美的特徴と効果的に統合し、美的予測を生成する。
画像の相対的属性をモデル化するために,画像間の相対的ランク付けと相対的距離関係を相対的相関損失関数で検討し,umaafのロバスト性を高める。
さらに、umaaf は tad66k と ava データセットで最先端のパフォーマンスを実現し、複数の実験で各モジュールの有効性とモデルの人間好みとの整合を実証した。
関連論文リスト
- ArtVLM: Attribute Recognition Through Vision-Based Prefix Language Modeling [32.55352435358949]
属性認識のための文生成に基づく検索定式化を提案する。
画像上で認識される各属性に対して、短い文を生成する視覚条件付き確率を測定する。
生成的検索が2つの視覚的推論データセットのコントラスト的検索を一貫して上回ることを示す実験を通して実証する。
論文 参考訳(メタデータ) (2024-08-07T21:44:29Z) - Predicting Scores of Various Aesthetic Attribute Sets by Learning from
Overall Score Labels [54.63611854474985]
本稿では,画像属性ラベルを特徴抽出器に置き換えることを提案する。
異なるタスクのネットワークを使用して、F2Sモデルに属性機能を提供します。
本手法は, 各種の美的属性セットに対して, 総合的な美的スコアのみを用いて有意な属性スコアを学習できるようにする。
論文 参考訳(メタデータ) (2023-12-06T01:41:49Z) - Learning Conditional Attributes for Compositional Zero-Shot Learning [78.24309446833398]
合成ゼロショット学習(CZSL)は、新しい合成概念を認識するためにモデルを訓練することを目的としている。
課題の1つは、異なる物体、例えば「濡れたリンゴ」と「濡れた猫」の属性をモデル化することである。
我々は、属性が認識対象と入力画像に条件付けされていることを議論し、条件付き属性の埋め込みを学習する。
論文 参考訳(メタデータ) (2023-05-29T08:04:05Z) - Aesthetic Attribute Assessment of Images Numerically on Mixed
Multi-attribute Datasets [16.120684660965978]
我々は、属性(AMD-A)を用いた美的混合データセットと呼ばれる画像属性データセットを構築し、融合のための外部属性特徴を設計する。
我々のモデルは、美的分類、総合評価、属性スコアを達成できる。
MindSporeを用いた実験結果から,本手法は審美的総合評価と属性評価を効果的に改善できることが示された。
論文 参考訳(メタデータ) (2022-07-05T04:42:10Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Composition and Style Attributes Guided Image Aesthetic Assessment [66.60253358722538]
本稿では,画像の美学を自動予測する手法を提案する。
提案ネットワークには,意味的特徴抽出のための事前学習ネットワーク(Backbone)と,画像属性の予測にBackbone機能に依存するマルチレイヤパーセプトロン(MLP)ネットワーク(AttributeNet)が含まれる。
画像が与えられた場合、提案するマルチネットワークは、スタイルと構成属性、および美的スコア分布を予測できる。
論文 参考訳(メタデータ) (2021-11-08T17:16:38Z) - Learning to Infer Unseen Attribute-Object Compositions [55.58107964602103]
単一属性と多属性オブジェクトの両方を柔軟に認識できるグラフベースモデルを提案する。
我々は116,099の画像と8,030の合成カテゴリを持つ大規模マルチ属性データセットを構築した。
論文 参考訳(メタデータ) (2020-10-27T14:57:35Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。