論文の概要: Personalized Reward Modeling for Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2511.19458v1
- Date: Fri, 21 Nov 2025 12:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.00204
- Title: Personalized Reward Modeling for Text-to-Image Generation
- Title(参考訳): テキスト・画像生成のためのパーソナライズされたリワードモデリング
- Authors: Jeongeun Lee, Ryang Heo, Dongha Lee,
- Abstract要約: ユーザ条件付き評価次元を動的に生成し,CoT推論による画像評価を行うパーソナライズされた報酬モデルであるPIGRewardを提案する。
PIGRewardは、ユーザ固有のプロンプト最適化を促進するパーソナライズされたフィードバックを提供する。
大規模な実験により、PIGRewardは精度と解釈可能性の両方において既存の手法を超越していることが示された。
- 参考スコア(独自算出の注目度): 9.780251969338044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent text-to-image (T2I) models generate semantically coherent images from textual prompts, yet evaluating how well they align with individual user preferences remains an open challenge. Conventional evaluation methods, general reward functions or similarity-based metrics, fail to capture the diversity and complexity of personal visual tastes. In this work, we present PIGReward, a personalized reward model that dynamically generates user-conditioned evaluation dimensions and assesses images through CoT reasoning. To address the scarcity of user data, PIGReward adopt a self-bootstrapping strategy that reasons over limited reference data to construct rich user contexts, enabling personalization without user-specific training. Beyond evaluation, PIGReward provides personalized feedback that drives user-specific prompt optimization, improving alignment between generated images and individual intent. We further introduce PIGBench, a per-user preference benchmark capturing diverse visual interpretations of shared prompts. Extensive experiments demonstrate that PIGReward surpasses existing methods in both accuracy and interpretability, establishing a scalable and reasoning-based foundation for personalized T2I evaluation and optimization. Taken together, our findings highlight PIGReward as a robust steptoward individually aligned T2I generation.
- Abstract(参考訳): 最近のテキスト・ツー・イメージ(T2I)モデルは、テキスト・プロンプトからセマンティック・コヒーレントなイメージを生成するが、個々のユーザの好みとどのように一致しているかは未解決のままである。
従来の評価方法、一般的な報酬関数、類似度に基づくメトリクスは、個人の視覚的嗜好の多様性と複雑さを捉えることができない。
本研究では,ユーザ条件付き評価次元を動的に生成し,CoT推論による画像評価を行うパーソナライズ報酬モデルであるPIGRewardを提案する。
ユーザデータの不足に対処するため、PIGRewardは、限られた参照データよりもリッチなユーザコンテキストを構築するためのセルフブートストラッピング戦略を採用し、ユーザ固有のトレーニングなしでパーソナライズを可能にする。
PIGRewardは評価以外にも、ユーザ固有のプロンプト最適化を促進するパーソナライズされたフィードバックを提供し、生成された画像と個々のインテントのアライメントを改善する。
さらに、共有プロンプトの多様な視覚的解釈をキャプチャするユーザごとの選好ベンチマークであるPIGBenchを紹介する。
大規模な実験により、PIGRewardは精度と解釈可能性の両方で既存の手法を超越し、パーソナライズされたT2I評価と最適化のためのスケーラブルで推論ベースの基盤を確立した。
以上の結果から,PIGRewardは個別にT2Iを生成できるロバストなステップトワードであることが示唆された。
関連論文リスト
- PreferThinker: Reasoning-based Personalized Image Preference Assessment [83.66114370585976]
推論に基づくパーソナライズされた画像嗜好評価フレームワークを提案する。
まず、ユーザーの好みプロファイルを参照画像から予測する。
次に、解釈可能で多次元のスコアと候補画像の評価を提供する。
論文 参考訳(メタデータ) (2025-11-01T16:19:51Z) - Personalize Before Retrieve: LLM-based Personalized Query Expansion for User-Centric Retrieval [34.298743064665395]
Personalize Before Retrieve (PBR) は、ユーザ固有の信号を検索前にクエリ拡張に組み込むフレームワークである。
PBRは一貫して強力なベースラインを上回り、PersonaBenchはリトリーバー全体で最大10%の利益を得ている。
論文 参考訳(メタデータ) (2025-10-10T02:24:09Z) - RAGAR: Retrieval Augmented Personalized Image Generation Guided by Recommendation [15.042729128202982]
我々は、レコメンデーション(RAGAR)でガイドされた検索機能拡張パーソナライズされた画像ジェネレーションを提案する。
提案手法では,参照項目との類似性に応じて,異なる重み付けを過去の項目に割り当てるための検索機構を用いる。
RAGARは、パーソナライゼーションとセマンティックメトリクスの両方において、5つのベースラインに比べて大幅に改善されている。
論文 参考訳(メタデータ) (2025-05-03T02:20:30Z) - DRC: Enhancing Personalized Image Generation via Disentangled Representation Composition [69.10628479553709]
大規模マルチモーダルモデル(LMM)を拡張した新しいパーソナライズされた画像生成フレームワークであるDRCを紹介する。
DRCは、履歴画像と参照画像から、ユーザスタイルの好みと意味的な意図をそれぞれ明示的に抽出する。
本研究は2つの重要な学習段階を包含する。1) スタイルと意味的特徴を明確に分離するために二重解離型学習を用い,難易度を考慮した再構成駆動型パラダイムを用いて最適化し,2) パーソナライズド・パーソナライズド・パーソナライズド・ジェネレーションを効果的に適用するパーソナライズド・モデリング。
論文 参考訳(メタデータ) (2025-04-24T08:10:10Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Preference Adaptive and Sequential Text-to-Image Generation [24.787970969428976]
我々は、大規模なオープンソース(非シーケンシャル)データセットとともに、シーケンシャルな選好の新たなデータセットを作成します。
EM戦略を用いてユーザ嗜好モデルとユーザ選択モデルを構築し,様々なユーザ嗜好タイプを同定する。
次に,大規模マルチモーダル言語モデル (LMM) と値に基づくRLアプローチを用いて,ユーザへの迅速な拡張の適応的かつ多様なスレートを提案する。
PASTA(Preference Adaptive and Sequential Text-to-image Agent)は、適応的マルチターン機能を備えたT2Iモデルを拡張し、協調的共同創造を促進し、不確実性や不特定性に対処する。
論文 参考訳(メタデータ) (2024-12-10T01:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。