論文の概要: GRAVITY: A Framework for Personalized Text Generation via Profile-Grounded Synthetic Preferences
- arxiv url: http://arxiv.org/abs/2510.11952v1
- Date: Mon, 13 Oct 2025 21:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.097436
- Title: GRAVITY: A Framework for Personalized Text Generation via Profile-Grounded Synthetic Preferences
- Title(参考訳): GRAVITY:プロファイル付き合成選好によるパーソナライズされたテキスト生成のためのフレームワーク
- Authors: Priyanka Dey, Daniele Rosa, Wenqing Zheng, Daniel Barcklow, Jieyu Zhao, Emilio Ferrara,
- Abstract要約: GRAVITYは、合成されたプロファイル付き嗜好データを生成するためのフレームワークである。
好みのペアを合成して、パーソナライズされたコンテンツ生成をガイドする。
我々は,400人のAmazonユーザを対象に,書籍記述におけるGRAVITYを評価した。
- 参考スコア(独自算出の注目度): 13.049420192852416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalization in LLMs often relies on costly human feedback or interaction logs, limiting scalability and neglecting deeper user attributes. To reduce the reliance on human annotations, we introduce GRAVITY (Generative Response with Aligned Values, Interests, and Traits of You), a framework for generating synthetic, profile-grounded preference data that captures users' interests, values, beliefs, and personality traits. By integrating demographic, cultural, and psychological frameworks -- including Hofstede's cultural dimensions, Schwartz's basic values, the World Values Survey, and Big Five OCEAN traits -- GRAVITY synthesizes preference pairs to guide personalized content generation. We evaluate GRAVITY on book descriptions for 400 Amazon users, comparing it to prompt-based conditioning, standard fine-tuning, and naive synthetic pair generation. Profile-grounded synthetic data consistently improves generation, especially across multiple cultures (USA, Brazil, Japan, India), achieving over 4% higher preference gains across baselines, with user studies showing that GRAVITY outputs are preferred over 86% of the time. Our results show that scenario-grounded synthetic data can capture richer user variation, reduce reliance on costly annotation, and produce more engaging, user-centered content, offering a scalable path for LLM personalization.
- Abstract(参考訳): LLMのパーソナライゼーションは、コストのかかる人的フィードバックやインタラクションログに依存し、スケーラビリティを制限し、より深いユーザー属性を無視することが多い。
ユーザの興味や価値観,信念,人格の特徴を捉えた,総合的かつプロファイル的な嗜好データを生成するフレームワークであるGRAVITY(Generative Response with Aligned Values, Interests, and Traits of You)を導入する。
人口、文化的、心理的な枠組みを統合することで、ホフステデの文化的側面、シュワルツの基本的な価値観、世界価値調査、そして五大OCEANの特質が、パーソナライズされたコンテンツ生成を導くために好みのペアを合成する。
我々は,400人のAmazonユーザを対象とした書籍記述におけるGRAVITYを評価し,これをプロンプトベースのコンディショニング,標準微調整,ナイーブな合成ペア生成と比較した。
特に複数の文化(米国、ブラジル、日本、インド)において、プロファイル付き合成データは連続的に生成を向上し、ベースライン全体で4%以上の嗜好が得られ、ユーザ調査ではGRAVITY出力が86%以上好まれている。
その結果,シナリオグラウンドの合成データは,よりリッチなユーザ変動を捉え,コストのかかるアノテーションへの依存を低減し,より魅力的でユーザ中心のコンテンツを生成し,LLMパーソナライズのためのスケーラブルなパスを提供することができた。
関連論文リスト
- EVALUESTEER: Measuring Reward Model Steerability Towards Values and Preferences [43.42154744611566]
大規模言語モデル(LLM)は世界中に展開され、世界中のユーザの多様な好みに合わせて複数のシステムを生成する。
ESTEERは、モデルのユーザ価値とスタイリスティックな嗜好プロファイルに対する操縦性を測定するためのベンチマークである。
論文 参考訳(メタデータ) (2025-10-07T18:36:15Z) - PerFairX: Is There a Balance Between Fairness and Personality in Large Language Model Recommendations? [0.47745223151611654]
LLM生成レコメンデーションにおけるパーソナライズと人口統計学的株式のトレードオフを定量化するためにPerFairXを提案する。
我々は、映画(MovieLens 10M)と音楽(Last.fm 360K)のデータセットで、最先端の2つのLLMであるChatGPTとDeepSeekをベンチマークする。
DeepSeekはより強い心理的適合性を達成するが、変化を促すために高い感度を示す一方、ChatGPTは安定しているがパーソナライズされていない出力を提供する。
論文 参考訳(メタデータ) (2025-08-20T09:41:53Z) - NextQuill: Causal Preference Modeling for Enhancing LLM Personalization [82.15961484963256]
因果選好モデルに基づく新しいパーソナライズフレームワークであるNextQuillを紹介する。
この洞察に基づいて、NextQuillは2つの補完的なアライメント戦略を導入した。
複数のパーソナライズベンチマークの実験により、NextQuillはパーソナライズ品質を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-03T02:08:55Z) - Fair-PP: A Synthetic Dataset for Aligning LLM with Personalized Preferences of Social Equity [33.36483739554757]
ソーシャルエクイティをターゲットとしたパーソナライズされた好みの合成データセットであるFair-PPを紹介する。
また、(i)嗜好データを生成するための自動フレームワークと、よりきめ細かいパーソナライズされた嗜好データセット、(ii)パーソナライズされた選好空間内の5大グローバル領域にまたがる既存の主流言語モデルの配置の分析、(iii)パーソナライズされた選好アライメントのためのサンプル再重み付け手法についても貢献する。
論文 参考訳(メタデータ) (2025-05-17T06:02:00Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Personality Alignment of Large Language Models [30.710131188931317]
パーソナリティ・アライメント(Personality Alignment)は、大きな言語モデルと個々のユーザの好みを合わせることを目的としている。
このデータセットには、複数のパーソナリティアセスメントを含む、32万人以上の実際の被験者のデータが含まれている。
本研究では,個人の行動選好を効率的に整合させるために,アクティベーション介入最適化手法を開発した。
私たちの仕事は、未来のAIシステムが真にパーソナライズされた方法で意思決定と推論を行うための道を開くものです。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。