論文の概要: ProEx: A Unified Framework Leveraging Large Language Model with Profile Extrapolation for Recommendation
- arxiv url: http://arxiv.org/abs/2512.00679v1
- Date: Sun, 30 Nov 2025 00:24:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.358037
- Title: ProEx: A Unified Framework Leveraging Large Language Model with Profile Extrapolation for Recommendation
- Title(参考訳): ProEx: 推奨のためのプロファイル外挿を備えた大規模言語モデルを活用した統一フレームワーク
- Authors: Yi Zhang, Yiwen Zhang, Yu Wang, Tong Chen, Hongzhi Yin,
- Abstract要約: 多面プロファイル外挿(ProEx)を用いた統合レコメンデーションフレームワークを提案する。
ProExを3つの識別法と3つの生成法に適用し、3つのデータセットに対して広範な実験を行う。
- 参考スコア(独自算出の注目度): 37.16564338237594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The powerful text understanding and generation capabilities of large language models (LLMs) have brought new vitality to general recommendation with implicit feedback. One possible strategy involves generating a unique user (or item) profile from historical interaction data, which is then mapped to a semantic representation in the language space. However, a single-instance profile may be insufficient to comprehensively capture the complex intentions behind a user's interacted items. Moreover, due to the inherent instability of LLMs, a biased or misinterpreted profile could even undermine the original recommendation performance. Consequently, an intuitive solution is to generate multiple profiles for each user (or item), each reflecting a distinct aspect of their characteristics. In light of this, we propose a unified recommendation framework with multi-faceted profile extrapolation (ProEx) in this paper. By leveraging chain-of-thought reasoning, we construct multiple distinct profiles for each user and item. These new profiles are subsequently mapped into semantic vectors, extrapolating from the position of the original profile to explore a broader region of the language space. Subsequently, we introduce the concept of environments, where each environment represents a possible linear combination of all profiles. The differences across environments are minimized to reveal the inherent invariance of user preferences. We apply ProEx to three discriminative methods and three generative methods, and conduct extensive experiments on three datasets. The experimental results demonstrate that ProEx significantly enhances the performance of these base recommendation models.
- Abstract(参考訳): 大きな言語モデル(LLM)の強力なテキスト理解と生成能力は、暗黙のフィードバックで一般的な推奨に新たな活力をもたらした。
1つの可能な戦略は、歴史的なインタラクションデータからユニークなユーザ(またはアイテム)プロファイルを生成し、言語空間のセマンティック表現にマッピングする。
しかし、シングルインスタンスプロファイルは、ユーザのインタラクションアイテムの背後にある複雑な意図を包括的にキャプチャするには不十分である。
さらに、LLMの固有の不安定性のため、偏りや誤解釈されたプロファイルは、オリジナルのレコメンデーション性能を損なうことさえある。
その結果、直感的な解決策は、各ユーザ(またはアイテム)に対して複数のプロファイルを生成し、それぞれがそれぞれの特性の異なる側面を反映する。
そこで本稿では,多面プロファイル外挿(ProEx)を用いた統一的なレコメンデーションフレームワークを提案する。
チェーンオブ思考の推論を活用することで、ユーザとアイテム毎に複数の異なるプロファイルを構築します。
これらの新しいプロファイルはその後意味ベクトルにマッピングされ、元のプロファイルの位置から外挿して言語空間の広い領域を探索する。
次に、各環境が全てのプロファイルの線形結合を可能とする環境の概念を紹介する。
環境間の差異は最小限に抑えられ、ユーザー嗜好の固有の相違を明らかにする。
ProExを3つの識別法と3つの生成法に適用し、3つのデータセットに対して広範な実験を行う。
実験の結果, ProExはこれらのベースレコメンデーションモデルの性能を大幅に向上させることがわかった。
関連論文リスト
- LettinGo: Explore User Profile Generation for Recommendation System [45.40232561275015]
本稿では,多様なユーザプロファイルを生成するための新しいフレームワークであるLetinGoを紹介する。
我々のフレームワークは、推奨精度、柔軟性、文脈認識を著しく向上させます。
論文 参考訳(メタデータ) (2025-06-23T05:51:52Z) - Towards Explainable Temporal User Profiling with LLMs [3.719862246745416]
我々は,大規模言語モデル(LLM)を利用して,ユーザのインタラクション履歴の自然言語要約を生成する。
我々のフレームワークは、時間的ユーザの好みをモデル化するだけでなく、解釈可能な方法でレコメンデーションを説明するために使える自然言語プロファイルも生成する。
論文 参考訳(メタデータ) (2025-05-01T22:02:46Z) - HyPerAlign: Interpretable Personalized LLM Alignment via Hypothesis Generation [24.67727411391369]
HyPerAlignは、大規模言語モデルに対する解釈可能かつサンプル効率の仮説駆動パーソナライズアプローチである。
我々は2つの異なるパーソナライズタスク、すなわち著者帰属と熟考的アライメントについて実験を行った。
その結果、仮説駆動型パーソナライゼーションの方が好みに基づく微調整法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-29T18:01:46Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - PRODIGy: a PROfile-based DIalogue Generation dataset [12.566555088877871]
コミュニケーションスタイル, 伝記, パーソナリティなど, 各対話が可能なすべての話者表現と整合する新たなリソースを提案する。
このフレームワークは、複数のプロファイル構成を持つ生成言語モデルを使用して構築されたいくつかのベースラインをテストすることができる。
論文 参考訳(メタデータ) (2023-11-09T08:19:34Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。