論文の概要: The Elements of Visual Art Recommendation: Learning Latent Semantic
Representations of Paintings
- arxiv url: http://arxiv.org/abs/2303.08182v1
- Date: Tue, 28 Feb 2023 18:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:38:54.797572
- Title: The Elements of Visual Art Recommendation: Learning Latent Semantic
Representations of Paintings
- Title(参考訳): 視覚芸術勧告の要素:絵画の潜在意味表現を学習する
- Authors: Bereket A. Yilma and Luis A. Leiva
- Abstract要約: アートワークのレコメンデーションは、ユーザが非常に主観的なコンテンツとどのように相互作用するかを理解する必要があるため、難しい。
本稿では、パーソナライズされたレコメンデーションのための視覚芸術の要素(すなわち潜在意味関係)を効率よく把握することに焦点を当てる。
- 参考スコア(独自算出の注目度): 7.79230326339002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artwork recommendation is challenging because it requires understanding how
users interact with highly subjective content, the complexity of the concepts
embedded within the artwork, and the emotional and cognitive reflections they
may trigger in users. In this paper, we focus on efficiently capturing the
elements (i.e., latent semantic relationships) of visual art for personalized
recommendation. We propose and study recommender systems based on textual and
visual feature learning techniques, as well as their combinations. We then
perform a small-scale and a large-scale user-centric evaluation of the quality
of the recommendations. Our results indicate that textual features compare
favourably with visual ones, whereas a fusion of both captures the most
suitable hidden semantic relationships for artwork recommendation. Ultimately,
this paper contributes to our understanding of how to deliver content that
suitably matches the user's interests and how they are perceived.
- Abstract(参考訳): アートワークのレコメンデーションは、ユーザが高度に主観的なコンテンツとどのように相互作用するか、アートワークに埋め込まれた概念の複雑さ、ユーザが引き起こす感情的および認知的リフレクションを理解する必要があるため、難しい。
本稿では,ビジュアルアートの要素(すなわち潜在意味関係)を効率的に捉えて,パーソナライズドレコメンデーションを行う。
本研究は,テキスト・視覚特徴学習手法とそれらの組み合わせに基づく推薦システムを提案し,検討する。
次に,提案するレコメンデーションの品質を,小規模かつ大規模に評価する。
その結果,テキストの特徴は視覚的特徴と良好に比較でき,両者の融合はアートワークの推薦に最も適した意味的関係を捉えていることがわかった。
最終的に,本論文は,ユーザの関心に合ったコンテンツの提供方法と,その認識方法の理解に寄与する。
関連論文リスト
- Textual Aesthetics in Large Language Models [80.09790024030525]
美学研磨のためのパイプラインを導入し,テキスト美学データセットTexAesの構築を支援する。
そこで本研究では,TAPOと呼ばれる直接選好最適化に基づくテキスト美学を利用した微調整手法を提案する。
本実験は,テキスト美学データとTAPOファインチューニング法を用いて,美学のスコアを改善するだけでなく,一般的な評価データセットの性能を向上させることを実証した。
論文 参考訳(メタデータ) (2024-11-05T09:22:08Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Tell Me What Is Good About This Property: Leveraging Reviews For
Segment-Personalized Image Collection Summarization [3.063926257586959]
プロパティ・レビューの分析により,プロパティ・ヴィジュアライゼーションの要約におけるユーザの意図を考察する。
視覚的な要約にレビューからの洞察を取り入れることで、ユーザに対して関連コンテンツを提示することで要約を強化する。
人間の知覚研究を含む我々の実験は、我々のクロスモーダルアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2023-10-30T17:06:49Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - Prompt Tuning Large Language Models on Personalized Aspect Extraction
for Recommendations [26.519571240032967]
アスペクト抽出とアスペクトベースのレコメンデーションをエンドツーエンドで組み合わせることを提案する。
提案フレームワークは、パーソナライズされたアスペクト抽出とアスペクトベースのレコメンデーションタスクの両方において、最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-06-02T12:00:03Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles [69.69160476215895]
このレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
ユーザが作業するプロジェクトのセマンティクスに対して視覚スタイルの好みを学習するRecSysを設計する。
論文 参考訳(メタデータ) (2022-08-23T12:11:28Z) - Discovering Personalized Semantics for Soft Attributes in Recommender
Systems using Concept Activation Vectors [34.56323846959459]
インタラクティブなレコメンデータシステムは、ユーザがよりリッチな方法で意図、好み、制約、コンテキストを表現することを可能にする。
課題の1つは、ユーザのセマンティックな意図を、しばしば望ましい項目を記述するために使用されるオープンエンドの用語や属性から推測することである。
このような属性のセマンティクスを捉える表現を学習し、それをレコメンデーションシステムにおけるユーザの好みや行動に結びつけるためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-02-06T18:45:15Z) - Personalised Visual Art Recommendation by Learning Latent Semantic
Representations [0.0]
本稿では,視覚芸術のパーソナライズドレコメンデーションへのアプローチを紹介する。
我々のLDAモデルは、説明可能なレコメンデーションを提供しながら、絵画間の不可避な意味関係を明らかにすることに成功している。
論文 参考訳(メタデータ) (2020-07-24T14:50:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。