論文の概要: EXACT: Explicit Attribute-Guided Decoding-Time Personalization
- arxiv url: http://arxiv.org/abs/2602.17695v1
- Date: Fri, 06 Feb 2026 14:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.535955
- Title: EXACT: Explicit Attribute-Guided Decoding-Time Personalization
- Title(参考訳): EXACT: Explicit Attribute-Guided Decoding-Time Personalization
- Authors: Xin Yu, Hanwen Xing, Lingzhou Xue,
- Abstract要約: EXACTは新しいデコード時のパーソナライゼーションで、生成とペアの好みのフィードバックを限定的に調整する。
EXACTは、好みのモデリング精度やパーソナライズされた生成品質など、強いベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 11.035465374731563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving personalized alignment requires adapting large language models to each user's evolving context. While decoding-time personalization offers a scalable alternative to training-time methods, existing methods largely rely on implicit, less interpretable preference representations and impose a rigid, context-agnostic user representation, failing to account for how preferences shift across prompts. We introduce EXACT, a new decoding-time personalization that aligns generation with limited pairwise preference feedback using a predefined set of interpretable attributes. EXACT first identifies user-specific attribute subsets by maximizing the likelihood of preferred responses in the offline stage. Then, for online inference, EXACT retrieves the most semantically relevant attributes for an incoming prompt and injects them into the context to steer generation. We establish theoretical approximation guarantees for the proposed algorithm under mild assumptions, and provably show that our similarity-based retrieval mechanism effectively mitigates contextual preference shifts, adapting to disparate tasks without pooling conflicting preferences. Extensive experiments on human-annotated preference datasets demonstrate that EXACT consistently outperforms strong baselines, including preference modeling accuracy and personalized generation quality.
- Abstract(参考訳): パーソナライズされたアライメントを実現するには、各ユーザの進化するコンテキストに大きな言語モデルを適用する必要がある。
復号時パーソナライゼーション(decoding-time personalization)は、トレーニング時のメソッドに代わるスケーラブルな代替手段を提供するが、既存のメソッドは、暗黙的、解釈不能な嗜好表現に大きく依存し、厳密でコンテキストに依存しないユーザ表現を課す。
ここでは、プリ定義された解釈可能な属性セットを用いて、生成を限定的なペアの好みフィードバックと整合する新しい復号時間パーソナライズであるEXACTを紹介する。
EXACTは、まず、オフラインステージにおける優先応答の可能性を最大化することで、ユーザ固有の属性サブセットを識別する。
次に、オンライン推論のために、EXACTは、受信したプロンプトに対して最も意味のある属性を検索し、それらをコンテキストに注入してステアジェネレーションを生成する。
我々は,提案アルゴリズムの理論的近似保証を軽度な仮定の下で確立し,類似性に基づく検索機構が文脈的嗜好シフトを効果的に軽減し,相反する選好をプールすることなく,異なるタスクに適応できることを確実に示す。
ヒトの注釈付き嗜好データセットに対する大規模な実験により、EXACTは好みのモデリング精度やパーソナライズされた生成品質など、強いベースラインを一貫して上回っていることが示された。
関連論文リスト
- Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - RecNet: Self-Evolving Preference Propagation for Agentic Recommender Systems [109.9061591263748]
RecNetは、レコメンデータシステムのための自己進化的な好みの伝達フレームワークである。
関連ユーザやアイテム間で、リアルタイムの好み更新を積極的に伝達する。
逆相では、フィードバック駆動の伝搬最適化機構がマルチエージェント強化学習フレームワークをシミュレートする。
論文 参考訳(メタデータ) (2026-01-29T12:14:31Z) - Automatic Prompt Optimization for Dataset-Level Feature Discovery [38.37728428959515]
特徴発見をデータセットレベルのプロンプト最適化問題として定式化する。
本稿では,言語モデルエージェントが特徴定義を共同で提案し,特徴値を抽出し,特徴品質を評価するマルチエージェントプロンプト最適化フレームワークを提案する。
この定式化は、サンプルごとの監督に依存し、非構造化テキストからの自動特徴発見のための原則化されたメカニズムを提供する、事前のプロンプト最適化手法から逸脱する。
論文 参考訳(メタデータ) (2026-01-20T12:51:03Z) - Semantic Prioritization in Visual Counterfactual Explanations with Weighted Segmentation and Auto-Adaptive Region Selection [50.68751788132789]
本研究は,自動適応候補編集ネットワーク(WSAE-Net)を用いた重み付きセマンティックマップ(Weighted Semantic Map)という,革新的な手法を提案する。
重み付きセマンティックマップの生成は、計算される必要のある非意味的特徴単位の削減を最大化するように設計されている。
自動適応型候補編集シーケンスは、処理すべき特徴ユニット間の最適な計算順序を決定するように設計されている。
論文 参考訳(メタデータ) (2025-11-17T05:34:10Z) - Inference-Time Personalized Alignment with a Few User Preference Queries [24.28598841525897]
生成モデルの応答とユーザの好みを一致させる問題について検討する。
提案するUserAlignは,複数クエリによるユーザの好みを,ペアの応答比較として提案する。
論文 参考訳(メタデータ) (2025-11-04T20:07:03Z) - POPI: Personalizing LLMs via Optimized Natural Language Preference Inference [42.25870704040321]
POPIは、不均一なユーザ信号を簡潔な自然言語要約に変換するための選好推論モデルを導入する一般的なフレームワークである。
これらの要約は、パーソナライズされた応答を生成するために共有生成モデルを必要とする透明でコンパクトで、転送可能なパーソナライズ表現として機能する。
4つのパーソナライズベンチマークによる大規模な実験により、POPIはパーソナライズ精度を常に改善し、コンテキストオーバーヘッドを大きなマージンで低減することを示した。
論文 参考訳(メタデータ) (2025-10-17T23:07:57Z) - Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - What Makes LLMs Effective Sequential Recommenders? A Study on Preference Intensity and Temporal Context [56.590259941275434]
RecPOは、シーケンシャルなレコメンデーションのための優先順位最適化フレームワークである。
これは、推定された嗜好階層と時間信号に基づいて適応的な報酬マージンを利用する。
タイムリーな満足感、コヒーレントな嗜好の維持、変化する状況下での識別の行使など、人間の意思決定の重要な特徴を反映している。
論文 参考訳(メタデータ) (2025-06-02T21:09:29Z) - Towards Explainable Temporal User Profiling with LLMs [3.719862246745416]
我々は,大規模言語モデル(LLM)を利用して,ユーザのインタラクション履歴の自然言語要約を生成する。
我々のフレームワークは、時間的ユーザの好みをモデル化するだけでなく、解釈可能な方法でレコメンデーションを説明するために使える自然言語プロファイルも生成する。
論文 参考訳(メタデータ) (2025-05-01T22:02:46Z) - Preference Discerning with LLM-Enhanced Generative Retrieval [23.559962422900238]
逐次レコメンデーションでは、モデルがユーザのインタラクション履歴に基づいたアイテムを推奨する。
本稿では,ユーザの嗜好を生成的レコメンデーションモデルに明示的に規定する,選好識別という新たなパラダイムを提案する。
以上の結果から,Menderはトレーニング中に観察されなかったとしても,ヒトの嗜好によって指導される推奨に効果的に適応することが示された。
論文 参考訳(メタデータ) (2024-12-11T18:26:55Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。