論文の概要: VisualLens: Personalization through Visual History
- arxiv url: http://arxiv.org/abs/2411.16034v1
- Date: Mon, 25 Nov 2024 01:45:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:41.500205
- Title: VisualLens: Personalization through Visual History
- Title(参考訳): VisualLens: ビジュアル履歴によるパーソナライズ
- Authors: Wang Bill Zhu, Deqing Fu, Kai Sun, Yi Lu, Zhaojiang Lin, Seungwhan Moon, Kanika Narang, Mustafa Canim, Yue Liu, Anuj Kumar, Xin Luna Dong,
- Abstract要約: 画像表現を抽出し,フィルタし,洗練し,パーソナライズするためにこれらの信号を利用する新しいアプローチであるVisualLensを提案する。
私たちのアプローチは、従来のメソッドが失敗するシナリオにおいて、パーソナライズされたレコメンデーションの道を開くものです。
- 参考スコア(独自算出の注目度): 32.938501645752126
- License:
- Abstract: We hypothesize that a user's visual history with images reflecting their daily life, offers valuable insights into their interests and preferences, and can be leveraged for personalization. Among the many challenges to achieve this goal, the foremost is the diversity and noises in the visual history, containing images not necessarily related to a recommendation task, not necessarily reflecting the user's interest, or even not necessarily preference-relevant. Existing recommendation systems either rely on task-specific user interaction logs, such as online shopping history for shopping recommendations, or focus on text signals. We propose a novel approach, VisualLens, that extracts, filters, and refines image representations, and leverages these signals for personalization. We created two new benchmarks with task-agnostic visual histories, and show that our method improves over state-of-the-art recommendations by 5-10% on Hit@3, and improves over GPT-4o by 2-5%. Our approach paves the way for personalized recommendations in scenarios where traditional methods fail.
- Abstract(参考訳): 日常の生活を反映したイメージを持つユーザの視覚履歴は、興味や嗜好に関する貴重な洞察を与え、パーソナライズに活用できると仮定する。
この目標を達成するための多くの課題の1つは、視覚史における多様性とノイズであり、推奨タスクに必ずしも関係しないイメージ、ユーザの関心を反映しない、あるいは必ずしも嗜好に関係しないイメージを含んでいる。
既存のレコメンデーションシステムは、オンラインショッピング履歴のようなタスク固有のユーザーインタラクションログに依存している。
画像表現を抽出し,フィルタし,洗練し,パーソナライズするためにこれらの信号を利用する新しいアプローチであるVisualLensを提案する。
我々はタスク非依存の視覚履歴を持つ2つの新しいベンチマークを作成し、Hit@3上で最先端の推奨よりも5-10%改善し、GPT-4oよりも2-5%改善したことを示す。
私たちのアプローチは、従来のメソッドが失敗するシナリオにおいて、パーソナライズされたレコメンデーションの道を開くものです。
関連論文リスト
- Learning User Embeddings from Human Gaze for Personalised Saliency Prediction [12.361829928359136]
本稿では,自然画像のペアと対応する相性マップからユーザ埋め込みを抽出する新しい手法を提案する。
提案手法のコアとなるのは,異なるユーザのイメージと個人満足度マップのペアを対比することにより,ユーザの埋め込みを学習する,シームズ畳み込みニューラルエンコーダである。
論文 参考訳(メタデータ) (2024-03-20T14:58:40Z) - PALP: Prompt Aligned Personalization of Text-to-Image Models [68.91005384187348]
既存のパーソナライズ手法は、パーソナライズ能力や複雑なプロンプトへのアライメントを損なう。
本稿では,この問題に対処するエフィンスル・プロンプトのためのパーソナライズ手法に着目した新しいアプローチを提案する。
本手法はテキストアライメントの改善に優れ,複雑かつ複雑なプロンプトによる画像作成を可能にする。
論文 参考訳(メタデータ) (2024-01-11T18:35:33Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Tailored Visions: Enhancing Text-to-Image Generation with Personalized Prompt Rewriting [13.252755478909899]
本稿では,3115名のユーザから300万以上のプロンプトを収集した大規模テキスト画像データセットに基づいて,ユーザプロンプトを書き換える新たなアプローチを提案する。
我々の書き換えモデルは、ユーザプロンプトの表現力とアライメントを意図した視覚的出力で向上させる。
論文 参考訳(メタデータ) (2023-10-12T08:36:25Z) - DOR: A Novel Dual-Observation-Based Approach for News Recommendation
Systems [2.7648976108201815]
本稿では,ニュースレコメンデーションの問題に対処する新しい手法を提案する。
我々のアプローチは二重観測の考え方に基づいている。
ニュースの内容とユーザの視点の両方を考慮することで、よりパーソナライズされた正確なレコメンデーションを提供することができる。
論文 参考訳(メタデータ) (2023-02-02T22:16:53Z) - Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles [69.69160476215895]
このレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
ユーザが作業するプロジェクトのセマンティクスに対して視覚スタイルの好みを学習するRecSysを設計する。
論文 参考訳(メタデータ) (2022-08-23T12:11:28Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - User-Guided Personalized Image Aesthetic Assessment based on Deep
Reinforcement Learning [64.07820203919283]
本稿では,新しいユーザガイド型画像美観評価フレームワークを提案する。
深部強化学習(DRL)に基づく審美評価のためのユーザインタラクションを活用して画像のリタッチとランク付けを行う
パーソナライズされた審美分布は、異なるユーザの審美的嗜好とより一致している。
論文 参考訳(メタデータ) (2021-06-14T15:19:48Z) - Personalized Visualization Recommendation [40.838444709402694]
パーソナライズされた視覚化推奨の問題について紹介し,それを解決するための汎用学習フレームワークを提案する。
特に,過去の可視化インタラクションに基づいて,個々のユーザに対してパーソナライズされた可視化を推奨することに着目した。
ユーザ中心の可視化コーパスをリリースし,230万の属性と32万のユーザ生成視覚化を備えた94kデータセットを探索する17.4kユーザで構成される。
論文 参考訳(メタデータ) (2021-02-12T04:06:34Z) - Adversarial Learning for Personalized Tag Recommendation [61.76193196463919]
大規模データセットでトレーニング可能なエンドツーエンドのディープネットワークを提案する。
ユーザの嗜好と視覚的エンコーディングの合同トレーニングにより、ネットワークは視覚的嗜好をタグ付け行動と効率的に統合することができる。
本稿では,提案モデルの有効性を2つの大規模および公開データセットで示す。
論文 参考訳(メタデータ) (2020-04-01T20:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。