論文の概要: VisualLens: Personalization through Visual History
- arxiv url: http://arxiv.org/abs/2411.16034v1
- Date: Mon, 25 Nov 2024 01:45:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:41.500205
- Title: VisualLens: Personalization through Visual History
- Title(参考訳): VisualLens: ビジュアル履歴によるパーソナライズ
- Authors: Wang Bill Zhu, Deqing Fu, Kai Sun, Yi Lu, Zhaojiang Lin, Seungwhan Moon, Kanika Narang, Mustafa Canim, Yue Liu, Anuj Kumar, Xin Luna Dong,
- Abstract要約: 画像表現を抽出し,フィルタし,洗練し,パーソナライズするためにこれらの信号を利用する新しいアプローチであるVisualLensを提案する。
私たちのアプローチは、従来のメソッドが失敗するシナリオにおいて、パーソナライズされたレコメンデーションの道を開くものです。
- 参考スコア(独自算出の注目度): 32.938501645752126
- License:
- Abstract: We hypothesize that a user's visual history with images reflecting their daily life, offers valuable insights into their interests and preferences, and can be leveraged for personalization. Among the many challenges to achieve this goal, the foremost is the diversity and noises in the visual history, containing images not necessarily related to a recommendation task, not necessarily reflecting the user's interest, or even not necessarily preference-relevant. Existing recommendation systems either rely on task-specific user interaction logs, such as online shopping history for shopping recommendations, or focus on text signals. We propose a novel approach, VisualLens, that extracts, filters, and refines image representations, and leverages these signals for personalization. We created two new benchmarks with task-agnostic visual histories, and show that our method improves over state-of-the-art recommendations by 5-10% on Hit@3, and improves over GPT-4o by 2-5%. Our approach paves the way for personalized recommendations in scenarios where traditional methods fail.
- Abstract(参考訳): 日常の生活を反映したイメージを持つユーザの視覚履歴は、興味や嗜好に関する貴重な洞察を与え、パーソナライズに活用できると仮定する。
この目標を達成するための多くの課題の1つは、視覚史における多様性とノイズであり、推奨タスクに必ずしも関係しないイメージ、ユーザの関心を反映しない、あるいは必ずしも嗜好に関係しないイメージを含んでいる。
既存のレコメンデーションシステムは、オンラインショッピング履歴のようなタスク固有のユーザーインタラクションログに依存している。
画像表現を抽出し,フィルタし,洗練し,パーソナライズするためにこれらの信号を利用する新しいアプローチであるVisualLensを提案する。
我々はタスク非依存の視覚履歴を持つ2つの新しいベンチマークを作成し、Hit@3上で最先端の推奨よりも5-10%改善し、GPT-4oよりも2-5%改善したことを示す。
私たちのアプローチは、従来のメソッドが失敗するシナリオにおいて、パーソナライズされたレコメンデーションの道を開くものです。
関連論文リスト
- Interactive Visualization Recommendation with Hier-SUCB [52.11209329270573]
本稿では,従来のインタラクションからユーザフィードバックを学習する対話型パーソナライズドビジュアライゼーションレコメンデーション(PVisRec)システムを提案する。
よりインタラクティブで正確なレコメンデーションのために、PVisRec設定における文脈的半帯域であるHier-SUCBを提案する。
論文 参考訳(メタデータ) (2025-02-05T17:14:45Z) - Personalized Fashion Recommendation with Image Attributes and Aesthetics Assessment [15.423307815155534]
利用可能な情報、特に画像を2つのグラフ属性に変換することで、より正確なファッションレコメンデーションを提供することを目指している。
画像とテキストを2つのコンポーネントとして分離する従来の手法と比較して,提案手法は画像とテキスト情報を組み合わせてよりリッチな属性グラフを作成する。
IQON3000データセットの予備実験により,提案手法はベースラインと比較して競争精度が向上することを示した。
論文 参考訳(メタデータ) (2025-01-06T15:31:10Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Impression-Aware Recommender Systems [53.48892326556546]
本稿ではインプレッションを用いたレコメンデーションシステムに関する体系的な文献レビューを行う。
本稿では,印象型レコメンデーションシステムと,印象型レコメンデーションシステムという,パーソナライズされたレコメンデーションのための新しいパラダイムを論じる。
論文 参考訳(メタデータ) (2023-08-15T16:16:02Z) - DOR: A Novel Dual-Observation-Based Approach for News Recommendation
Systems [2.7648976108201815]
本稿では,ニュースレコメンデーションの問題に対処する新しい手法を提案する。
我々のアプローチは二重観測の考え方に基づいている。
ニュースの内容とユーザの視点の両方を考慮することで、よりパーソナライズされた正確なレコメンデーションを提供することができる。
論文 参考訳(メタデータ) (2023-02-02T22:16:53Z) - Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles [69.69160476215895]
このレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
ユーザが作業するプロジェクトのセマンティクスに対して視覚スタイルの好みを学習するRecSysを設計する。
論文 参考訳(メタデータ) (2022-08-23T12:11:28Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - Personalized Visualization Recommendation [40.838444709402694]
パーソナライズされた視覚化推奨の問題について紹介し,それを解決するための汎用学習フレームワークを提案する。
特に,過去の可視化インタラクションに基づいて,個々のユーザに対してパーソナライズされた可視化を推奨することに着目した。
ユーザ中心の可視化コーパスをリリースし,230万の属性と32万のユーザ生成視覚化を備えた94kデータセットを探索する17.4kユーザで構成される。
論文 参考訳(メタデータ) (2021-02-12T04:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。