論文の概要: Unveiling Inference Scaling for Difference-Aware User Modeling in LLM Personalization
- arxiv url: http://arxiv.org/abs/2511.15389v1
- Date: Wed, 19 Nov 2025 12:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.799688
- Title: Unveiling Inference Scaling for Difference-Aware User Modeling in LLM Personalization
- Title(参考訳): LLMパーソナライゼーションにおける差分を考慮したユーザモデリングのための展開推論スケーリング
- Authors: Suyu Chen, Yimeng Bai, Yulong Huang, Xiaoyan Zhao, Yang Zhang,
- Abstract要約: 差分対応推論パーソナライゼーションは、推論スケーリングを活用してパーソナライゼーションを強化することで、差分抽出機構を再構築するフレームワークである。
LLMは、関連する特徴次元を自律的に識別し、構造化された定義と記述を生成する。
- 参考スコア(独自算出の注目度): 8.34180795290891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into users' daily lives, driving a growing demand for personalized outputs. Prior work has primarily leveraged a user's own history, often overlooking inter-user differences that are critical for effective personalization. While recent methods have attempted to model such differences, their feature extraction processes typically rely on fixed dimensions and quick, intuitive inference (System-1 thinking), limiting both the coverage and granularity of captured user differences. To address these limitations, we propose Difference-aware Reasoning Personalization (DRP), a framework that reconstructs the difference extraction mechanism by leveraging inference scaling to enhance LLM personalization. DRP autonomously identifies relevant difference feature dimensions and generates structured definitions and descriptions, enabling slow, deliberate reasoning (System-2 thinking) over user differences. Experiments on personalized review generation demonstrate that DRP consistently outperforms baseline methods across multiple metrics.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザの日常生活にますます統合され、パーソナライズされたアウトプットに対する需要が高まっている。
これまでの作業は、ユーザ自身の履歴を主に活用しており、多くの場合、効果的なパーソナライゼーションに不可欠なユーザ間の違いを見落としている。
最近の手法ではこのような違いをモデル化しようと試みているが、それらの特徴抽出プロセスは通常、固定次元と直感的推論(System-1思考)に依存しており、キャプチャされたユーザ差のカバレッジと粒度を制限している。
これらの制約に対処するため,LLMパーソナライゼーションを強化するために,推論スケーリングを活用して差分抽出機構を再構築するフレームワークである差分認識推論パーソナライゼーション(DRP)を提案する。
DRPは、関連する特徴次元を自律的に識別し、構造化された定義と記述を生成する。
パーソナライズされたレビュー生成の実験は、DRPが複数のメトリクスのベースラインメソッドを一貫して上回っていることを示している。
関連論文リスト
- Latent Inter-User Difference Modeling for LLM Personalization [42.29204853138223]
差分認識の埋め込みに基づくパーソナライゼーション(DEP)は、言語プロンプトに頼るのではなく、潜在空間におけるユーザ間差をモデル化するフレームワークである。
スパースオートエンコーダは、ユーザ固有の埋め込みと差分認識の埋め込みの両方をフィルタリングして圧縮し、タスク関連機能のみを保存する。
論文 参考訳(メタデータ) (2025-07-28T14:00:57Z) - PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time [87.99027488664282]
PersonaAgentは、汎用的なパーソナライゼーションタスクに対処するために設計されたフレームワークである。
パーソナライズされたメモリモジュールとパーソナライズされたアクションモジュールを統合する。
テストタイムのユーザ嗜好アライメント戦略は、リアルタイムのユーザの嗜好アライメントを保証する。
論文 参考訳(メタデータ) (2025-06-06T17:29:49Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - Personalized Preference Fine-tuning of Diffusion Models [75.22218338096316]
拡散モデルとパーソナライズされた嗜好を整合させるマルチリワード最適化の目的であるPDを導入する。
PPDでは、拡散モデルがユーザーの個人の好みを数秒で学習する。
提案手法は,Stable Cascadeに対して平均76%の勝利率を達成し,特定のユーザの好みをより正確に反映した画像を生成する。
論文 参考訳(メタデータ) (2025-01-11T22:38:41Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。