論文の概要: RAGAR: Retrieval Augment Personalized Image Generation Guided by Recommendation
- arxiv url: http://arxiv.org/abs/2505.01657v1
- Date: Sat, 03 May 2025 02:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.220446
- Title: RAGAR: Retrieval Augment Personalized Image Generation Guided by Recommendation
- Title(参考訳): RAGAR:レコメンデーションでガイドされた検索強化パーソナライズされた画像生成
- Authors: Run Ling, Wenji Wang, Yuting Liu, Guibing Guo, Linying Jiang, Xingwei Wang,
- Abstract要約: 我々は、レコメンデーション(RAGAR)でガイドされた検索機能拡張パーソナライズされた画像ジェネレーションを提案する。
提案手法では,参照項目との類似性に応じて,異なる重み付けを過去の項目に割り当てるための検索機構を用いる。
RAGARは、パーソナライゼーションとセマンティックメトリクスの両方において、5つのベースラインに比べて大幅に改善されている。
- 参考スコア(独自算出の注目度): 9.31199434211423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized image generation is crucial for improving the user experience, as it renders reference images into preferred ones according to user visual preferences. Although effective, existing methods face two main issues. First, existing methods treat all items in the user historical sequence equally when extracting user preferences, overlooking the varying semantic similarities between historical items and the reference item. Disproportionately high weights for low-similarity items distort users' visual preferences for the reference item. Second, existing methods heavily rely on consistency between generated and reference images to optimize the generation, which leads to underfitting user preferences and hinders personalization. To address these issues, we propose Retrieval Augment Personalized Image GenerAtion guided by Recommendation (RAGAR). Our approach uses a retrieval mechanism to assign different weights to historical items according to their similarities to the reference item, thereby extracting more refined users' visual preferences for the reference item. Then we introduce a novel rank task based on the multi-modal ranking model to optimize the personalization of the generated images instead of forcing depend on consistency. Extensive experiments and human evaluations on three real-world datasets demonstrate that RAGAR achieves significant improvements in both personalization and semantic metrics compared to five baselines.
- Abstract(参考訳): パーソナライズされた画像生成は、ユーザの視覚的嗜好に応じて、参照画像を好ましいものにレンダリングするので、ユーザエクスペリエンスを改善するために不可欠である。
効果はあるものの、既存の方法は2つの主要な問題に直面している。
まず,過去の項目と参照項目のセマンティックな類似性を見越して,ユーザの好みを抽出する際に,ユーザ履歴シーケンス内のすべての項目を等しく扱う。
低相似項目に対する不均等な重み付けは、参照項目に対するユーザの視覚的嗜好を歪ませる。
第二に、既存の手法は生成画像と参照画像の整合性に大きく依存して生成を最適化し、ユーザの嗜好を過小評価し、パーソナライズを阻害する。
これらの課題に対処するため,レコメンデーション(RAGAR)でガイドされた検索機能拡張パーソナライズドイメージジェネレーションを提案する。
提案手法では,参照項目と類似性に応じて異なる重み付けを付与する検索機構を用いて,参照項目に対するより洗練されたユーザの視覚的嗜好を抽出する。
次に,複数モードのランキングモデルに基づく新しいランキングタスクを導入し,一貫性に頼らずに生成した画像のパーソナライゼーションを最適化する。
3つの実世界のデータセットに対する大規模な実験と人間の評価は、RAGARが5つのベースラインと比較してパーソナライゼーションとセマンティックメトリクスの両方において大きな改善を達成していることを示している。
関連論文リスト
- Optimizing Multi-Round Enhanced Training in Diffusion Models for Improved Preference Understanding [29.191627597682597]
本稿では,ユーザの好みに合わせた報酬モデルを活用し,フィードバックをループに組み込んだフレームワークを提案する。
このアプローチは、特にマルチターン対話シナリオにおいて、ユーザの満足度において競合するモデルを一貫して上回ります。
論文 参考訳(メタデータ) (2025-04-25T09:35:02Z) - Interactive Visualization Recommendation with Hier-SUCB [52.11209329270573]
本稿では,従来のインタラクションからユーザフィードバックを学習する対話型パーソナライズドビジュアライゼーションレコメンデーション(PVisRec)システムを提案する。
よりインタラクティブで正確なレコメンデーションのために、PVisRec設定における文脈的半帯域であるHier-SUCBを提案する。
論文 参考訳(メタデータ) (2025-02-05T17:14:45Z) - Personalized Fashion Recommendation with Image Attributes and Aesthetics Assessment [15.423307815155534]
利用可能な情報、特に画像を2つのグラフ属性に変換することで、より正確なファッションレコメンデーションを提供することを目指している。
画像とテキストを2つのコンポーネントとして分離する従来の手法と比較して,提案手法は画像とテキスト情報を組み合わせてよりリッチな属性グラフを作成する。
IQON3000データセットの予備実験により,提案手法はベースラインと比較して競争精度が向上することを示した。
論文 参考訳(メタデータ) (2025-01-06T15:31:10Z) - VisualLens: Personalization through Visual History [32.938501645752126]
画像表現を抽出し,フィルタし,洗練し,パーソナライズするためにこれらの信号を利用する新しいアプローチであるVisualLensを提案する。
私たちのアプローチは、従来のメソッドが失敗するシナリオにおいて、パーソナライズされたレコメンデーションの道を開くものです。
論文 参考訳(メタデータ) (2024-11-25T01:45:42Z) - ViPer: Visual Personalization of Generative Models via Individual Preference Learning [11.909247529297678]
本稿では,画像生成プロセスのパーソナライズを,ユーザの汎用的な嗜好を1回に分けて行うことを提案する。
これらのコメントに基づいて、ユーザの構造化された好き嫌いや視覚的属性を推測する。
これらの属性は、個々のユーザの視覚的嗜好に合わせて調整された画像を生成するために、テキスト・ツー・イメージ・モデルを導くために使用される。
論文 参考訳(メタデータ) (2024-07-24T15:42:34Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。