論文の概要: CherryRec: Enhancing News Recommendation Quality via LLM-driven Framework
- arxiv url: http://arxiv.org/abs/2406.12243v1
- Date: Tue, 18 Jun 2024 03:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 22:49:04.316558
- Title: CherryRec: Enhancing News Recommendation Quality via LLM-driven Framework
- Title(参考訳): CherryRec: LLM駆動フレームワークによるニュースレコメンデーション品質向上
- Authors: Shaohuang Wang, Lun Wang, Yunhan Bu, Tianwei Huang,
- Abstract要約: 我々は,textitCherryRecという名前のLarge Language Models (LLMs) を用いたニュースレコメンデーションフレームワークを提案する。
CherryRecは、レコメンデーションプロセスを加速しながら、レコメンデーションの品質を保証する。
提案手法の有効性を,ベンチマークデータセット上での最先端のベースライン手法と比較することにより検証する。
- 参考スコア(独自算出の注目度): 4.4206696279087
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have achieved remarkable progress in language understanding and generation. Custom LLMs leveraging textual features have been applied to recommendation systems, demonstrating improvements across various recommendation scenarios. However, most existing methods perform untrained recommendation based on pre-trained knowledge (e.g., movie recommendation), and the auto-regressive generation of LLMs leads to slow inference speeds, making them less effective in real-time recommendations.To address this, we propose a framework for news recommendation using LLMs, named \textit{CherryRec}, which ensures the quality of recommendations while accelerating the recommendation process. Specifically, we employ a Knowledge-aware News Rapid Selector to retrieve candidate options based on the user's interaction history. The history and retrieved items are then input as text into a fine-tuned LLM, the Content-aware News Llm Evaluator, designed to enhance news recommendation capabilities. Finally, the Value-aware News Scorer integrates the scores to compute the CherryRec Score, which serves as the basis for the final recommendation.We validate the effectiveness of the proposed framework by comparing it with state-of-the-art baseline methods on benchmark datasets. Our experimental results consistently show that CherryRec outperforms the baselines in both recommendation performance and efficiency.The project resource can be accessed at: \url{https://github.com/xxxxxx}
- Abstract(参考訳): 大規模言語モデル(LLM)は言語理解と生成において顕著な進歩を遂げた。
テキスト機能を活用したカスタムLLMがレコメンデーションシステムに適用され、さまざまなレコメンデーションシナリオの改善が実証されている。
しかし,既存のほとんどの手法では,事前学習した知識(例えば映画レコメンデーション)に基づいて未学習のレコメンデーションを行い,自動回帰によるレコメンデーション生成によって推論速度が遅くなり,リアルタイムレコメンデーションでは効果が低下する。これに対応するために,レコメンデーションプロセスの高速化を図りつつ,レコメンデーションの質を保証するためのフレームワークであるtextit{CherryRec} を提案する。
具体的には、ユーザのインタラクション履歴に基づいて候補候補を検索するために、知識対応ニュースラピッドセレクタを用いる。
履歴と検索された項目は、ニュースレコメンデーション機能を強化するために設計された、コンテンツ対応のニュースLlm評価ツールであるLLMにテキストとして入力される。
最後に、Value-Aware News Scorerはスコアを統合し、CherryRecスコアを計算し、最終的な推薦の基盤となる。
実験の結果、CherryRecはレコメンデーションパフォーマンスと効率の両方でベースラインを上回っており、プロジェクトリソースは以下の通りアクセスできます。
関連論文リスト
- Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning [57.28766250993726]
この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:48:36Z) - Taxonomy-Guided Zero-Shot Recommendations with LLMs [45.81618062939684]
大規模言語モデル (LLM) はレコメンデータシステム (RecSys) において有望であることを示す。
項目情報の明瞭度と構造を改善するため,分類学辞書を用いた新しい手法を提案する。
TaxRecは従来のゼロショットアプローチに比べて推奨品質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-20T07:06:58Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecPrompt: A Self-tuning Prompting Framework for News Recommendation Using Large Language Models [12.28603831152324]
我々は、ニュースレコメンデーションのための最初のセルフチューニングプロンプトフレームワークであるRecPromptを紹介する。
また、説明可能性を評価するための新しいメトリクスであるTopicScoreを紹介します。
論文 参考訳(メタデータ) (2023-12-16T14:42:46Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。