論文の概要: A Language-Driven Framework for Improving Personalized Recommendations: Merging LLMs with Traditional Algorithms
- arxiv url: http://arxiv.org/abs/2507.07251v1
- Date: Wed, 09 Jul 2025 19:48:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.19256
- Title: A Language-Driven Framework for Improving Personalized Recommendations: Merging LLMs with Traditional Algorithms
- Title(参考訳): パーソナライズされたレコメンデーションを改善するための言語駆動フレームワーク - LLMと従来のアルゴリズムの融合
- Authors: Aaron Goldstein, Ayan Dutta,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語処理の最も有望なツールの1つである。
本研究は、親しい友人が個人の好みの知識に基づいて、いかにアイテムを推薦するかを模倣する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.831462251544684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional recommendation algorithms are not designed to provide personalized recommendations based on user preferences provided through text, e.g., "I enjoy light-hearted comedies with a lot of humor". Large Language Models (LLMs) have emerged as one of the most promising tools for natural language processing in recent years. This research proposes a novel framework that mimics how a close friend would recommend items based on their knowledge of an individual's tastes. We leverage LLMs to enhance movie recommendation systems by refining traditional algorithm outputs and integrating them with language-based user preference inputs. We employ Singular Value Decomposition (SVD) or SVD++ algorithms to generate initial movie recommendations, implemented using the Surprise Python library and trained on the MovieLens-Latest-Small dataset. We compare the performance of the base algorithms with our LLM-enhanced versions using leave-one-out validation hit rates and cumulative hit rates. Additionally, to compare the performance of our framework against the current state-of-the-art recommendation systems, we use rating and ranking metrics with an item-based stratified 0.75 train, 0.25 test split. Our framework can generate preference profiles automatically based on users' favorite movies or allow manual preference specification for more personalized results. Using an automated approach, our framework overwhelmingly surpassed SVD and SVD++ on every evaluation metric used (e.g., improvements of up to ~6x in cumulative hit rate, ~3.7x in NDCG, etc.), albeit at the cost of a slight increase in computational overhead.
- Abstract(参考訳): 従来のレコメンデーションアルゴリズムは、テキストを通じて提供されるユーザの好みに基づいてパーソナライズされたレコメンデーションを提供するように設計されていない。
大規模言語モデル(LLM)は、近年でもっとも有望な自然言語処理ツールの1つである。
本研究は、親しい友人が個人の好みの知識に基づいて、いかにアイテムを推薦するかを模倣する新しい枠組みを提案する。
我々はLLMを活用し、従来のアルゴリズムの出力を精製し、言語ベースのユーザ好み入力と統合することで、映画レコメンデーションシステムを強化する。
我々はSingular Value Decomposition (SVD) またはSVD++アルゴリズムを用いて、初期の映画レコメンデーションを生成し、Surprise Pythonライブラリを使用して実装し、MovieLens-Update-Smallデータセットでトレーニングした。
ベースアルゴリズムの性能とLLMの強化バージョンを比較し,残高検証ヒット率と累積ヒット率を用いて比較した。
さらに、我々のフレームワークのパフォーマンスを現在の最先端のレコメンデーションシステムと比較するために、評価基準とランキング指標を使い、アイテムベースの階層化0.75列車、テスト分割0.25列車を使用します。
当社のフレームワークでは,ユーザの好みの映画に基づいて好みのプロフィールを自動的に生成したり,よりパーソナライズされた結果に対して手動で好みの仕様を作成できる。
自動手法を用いることで、我々のフレームワークは、計算オーバーヘッドがわずかに増大するにもかかわらず、使用する評価指標(例えば、累積ヒットレートの最大6倍、NDCGの最大3.7倍)において、SVDとSVD++を圧倒的に上回った。
関連論文リスト
- CherryRec: Enhancing News Recommendation Quality via LLM-driven Framework [4.4206696279087]
我々は,textitCherryRecという名前のLarge Language Models (LLMs) を用いたニュースレコメンデーションフレームワークを提案する。
CherryRecは、レコメンデーションプロセスを加速しながら、レコメンデーションの品質を保証する。
提案手法の有効性を,ベンチマークデータセット上での最先端のベースライン手法と比較することにより検証する。
論文 参考訳(メタデータ) (2024-06-18T03:33:38Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Comparing Bad Apples to Good Oranges: Aligning Large Language Models via Joint Preference Optimization [105.3612692153615]
命令応答対に対して協調的に好みを抽出する新しい軸を提案する。
命令と応答ペアを併用することで、大きな言語モデルのアライメントを大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-03-31T02:05:40Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。