論文の概要: Personalised Visual Art Recommendation by Learning Latent Semantic
Representations
- arxiv url: http://arxiv.org/abs/2008.02687v1
- Date: Fri, 24 Jul 2020 14:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 07:08:03.533996
- Title: Personalised Visual Art Recommendation by Learning Latent Semantic
Representations
- Title(参考訳): 潜在意味表現の学習によるパーソナライズされた視覚芸術推薦
- Authors: Bereket Abera Yilma, Najib Aghenda, Marcelo Romero, Yannick Naudet and
Herve Panetto
- Abstract要約: 本稿では,視覚芸術のパーソナライズドレコメンデーションへのアプローチを紹介する。
我々のLDAモデルは、説明可能なレコメンデーションを提供しながら、絵画間の不可避な意味関係を明らかにすることに成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Recommender systems, data representation techniques play a great role as
they have the power to entangle, hide and reveal explanatory factors embedded
within datasets. Hence, they influence the quality of recommendations.
Specifically, in Visual Art (VA) recommendations the complexity of the concepts
embodied within paintings, makes the task of capturing semantics by machines
far from trivial. In VA recommendation, prominent works commonly use manually
curated metadata to drive recommendations. Recent works in this domain aim at
leveraging visual features extracted using Deep Neural Networks (DNN). However,
such data representation approaches are resource demanding and do not have a
direct interpretation, hindering user acceptance. To address these limitations,
we introduce an approach for Personalised Recommendation of Visual arts based
on learning latent semantic representation of paintings. Specifically, we
trained a Latent Dirichlet Allocation (LDA) model on textual descriptions of
paintings. Our LDA model manages to successfully uncover non-obvious semantic
relationships between paintings whilst being able to offer explainable
recommendations. Experimental evaluations demonstrate that our method tends to
perform better than exploiting visual features extracted using pre-trained Deep
Neural Networks.
- Abstract(参考訳): Recommenderシステムでは、データセットに埋め込まれた説明的要因を絡み合わせる、隠蔽する能力を持つため、データ表現技術が大きな役割を果たす。
したがって、それらはレコメンデーションの品質に影響を与える。
特に、視覚芸術(va)では、絵画の中に具現化された概念の複雑さを推奨しており、機械によって意味を捉える作業はさほど簡単ではない。
VAレコメンデーションでは、著名な作品が手作業によるメタデータを使ってレコメンデーションを推進している。
この領域における最近の研究は、Deep Neural Networks (DNN) を用いて抽出された視覚的特徴を活用することを目的としている。
しかし、そのようなデータ表現アプローチはリソース要求であり、直接解釈を持たないため、ユーザの受け入れを妨げる。
これらの制約に対処するために,絵画の潜在意味表現を学習した上で,視覚芸術のパーソナライズドレコメンデーションのためのアプローチを導入する。
具体的には,絵画のテキスト記述に基づく潜在ディリクレ配置(LDA)モデルを訓練した。
我々のLDAモデルは、説明可能なレコメンデーションを提供しながら、絵画間の不可避な意味関係を明らかにすることに成功した。
実験により,本手法は,事前学習したディープニューラルネットワークを用いて抽出した視覚的特徴を活用できる傾向を示した。
関連論文リスト
- Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - PLIP: Language-Image Pre-training for Person Representation Learning [47.61636087431226]
個人表現学習のための新しい言語画像事前学習フレームワークPLIPを提案する。
微粒なクロスモーダルアソシエーションを明示的に構築するために,3つのプレテキスト,すなわちセマンティックフューズド画像のカラー化,視覚フューズド属性予測,視覚言語マッチングを設計する。
我々は、SynTH-PEDES上でPLIPを事前訓練し、テキストベースのRe-ID、画像ベースのRe-ID、人物属性認識などの下流タスクにまたがるモデルを評価する。
論文 参考訳(メタデータ) (2023-05-15T06:49:00Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - The Elements of Visual Art Recommendation: Learning Latent Semantic
Representations of Paintings [7.79230326339002]
アートワークのレコメンデーションは、ユーザが非常に主観的なコンテンツとどのように相互作用するかを理解する必要があるため、難しい。
本稿では、パーソナライズされたレコメンデーションのための視覚芸術の要素(すなわち潜在意味関係)を効率よく把握することに焦点を当てる。
論文 参考訳(メタデータ) (2023-02-28T18:17:36Z) - Bridging the visual gap in VLN via semantically richer instructions [3.5789352263336847]
現状のモデルでは、限られた、あるいは全く視覚的データを受け取らない場合、深刻な影響を受けないことが示される。
より明示的な視覚情報の導入を促進する新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-10-27T15:58:07Z) - Good Visual Guidance Makes A Better Extractor: Hierarchical Visual
Prefix for Multimodal Entity and Relation Extraction [88.6585431949086]
本稿では,視覚的な実体と関係抽出のための階層型ビジュアルプレフィックス融合NeTwork(HVPNeT)を提案する。
視覚的表現をプラグ可能な視覚的接頭辞とみなして, 誤りに敏感な予測決定のためのテキスト的表現を導出する。
3つのベンチマークデータセットの実験により,本手法の有効性が実証され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2022-05-07T02:10:55Z) - Rating and aspect-based opinion graph embeddings for explainable
recommendations [69.9674326582747]
本稿では,テキストレビューで表現された評価情報とアスペクトベースの意見を組み合わせたグラフから抽出した埋め込みを活用することを提案する。
次に、AmazonとYelpが6つのドメインで生成したグラフに対して、最先端のグラフ埋め込み技術を適用し、評価し、ベースラインレコメンデータを上回っます。
論文 参考訳(メタデータ) (2021-07-07T14:07:07Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Semantically-Guided Representation Learning for Self-Supervised
Monocular Depth [40.49380547487908]
本稿では,自己教師付き表現学習を指導するために,事前訓練型セマンティックセマンティック・セマンティクス・ネットワークを利用した新しいアーキテクチャを提案する。
本手法は,全画素,細粒度細部,意味カテゴリーごとの自己教師型単眼深度予測のための技術の現状を改善した。
論文 参考訳(メタデータ) (2020-02-27T18:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。