論文の概要: RecPrompt: A Self-tuning Prompting Framework for News Recommendation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2312.10463v4
- Date: Tue, 22 Oct 2024 12:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:30:55.792217
- Title: RecPrompt: A Self-tuning Prompting Framework for News Recommendation Using Large Language Models
- Title(参考訳): RecPrompt: 大規模言語モデルを用いたニュースレコメンデーションのためのセルフチューニング型プロンプトフレームワーク
- Authors: Dairui Liu, Boming Yang, Honghui Du, Derek Greene, Neil Hurley, Aonghus Lawlor, Ruihai Dong, Irene Li,
- Abstract要約: 我々は、ニュースレコメンデーションのための最初のセルフチューニングプロンプトフレームワークであるRecPromptを紹介する。
また、説明可能性を評価するための新しいメトリクスであるTopicScoreを紹介します。
- 参考スコア(独自算出の注目度): 12.28603831152324
- License:
- Abstract: News recommendations heavily rely on Natural Language Processing (NLP) methods to analyze, understand, and categorize content, enabling personalized suggestions based on user interests and reading behaviors. Large Language Models (LLMs) like GPT-4 have shown promising performance in understanding natural language. However, the extent of their applicability to news recommendation systems remains to be validated. This paper introduces RecPrompt, the first self-tuning prompting framework for news recommendation, leveraging the capabilities of LLMs to perform complex news recommendation tasks. This framework incorporates a news recommender and a prompt optimizer that applies an iterative bootstrapping process to enhance recommendations through automatic prompt engineering. Extensive experimental results with 400 users show that RecPrompt can achieve an improvement of 3.36% in AUC, 10.49% in MRR, 9.64% in nDCG@5, and 6.20% in nDCG@10 compared to deep neural models. Additionally, we introduce TopicScore, a novel metric to assess explainability by evaluating LLM's ability to summarize topics of interest for users. The results show LLM's effectiveness in accurately identifying topics of interest and delivering comprehensive topic-based explanations.
- Abstract(参考訳): ニュースレコメンデーションは、ユーザーの興味や読書行動に基づいてパーソナライズされた提案を可能にする、コンテンツを分析、理解、分類するための自然言語処理(NLP)手法に大きく依存している。
GPT-4のような大規模言語モデル(LLM)は、自然言語を理解する上で有望な性能を示している。
しかし、ニュースレコメンデーションシステムへの適用性については、まだ検証されていない。
本稿では,LLMによる複雑なニュースレコメンデーションタスクの実行能力を活用した,ニュースレコメンデーションのための最初のセルフチューニングプロンプトフレームワークであるRecPromptを紹介する。
このフレームワークには、ニュースレコメンデータと、自動プロンプトエンジニアリングによるレコメンデーションを強化するために反復的なブートストラッププロセスを適用するプロンプトオプティマイザが組み込まれている。
400人のユーザによる大規模な実験結果によると、RecPromptはAUCで3.36%、MRRで10.49%、nDCG@5で9.64%、nDCG@10で6.20%の改善を実現している。
さらに,ユーザが興味を持つトピックを要約するLLMの能力を評価することで,説明可能性を評価する新しい指標であるTopicScoreを紹介した。
その結果,LLMが興味のあるトピックを正確に識別し,包括的トピックに基づく説明を提供することの有効性が示唆された。
関連論文リスト
- LANE: Logic Alignment of Non-tuning Large Language Models and Online Recommendation Systems for Explainable Reason Generation [15.972926854420619]
大きな言語モデル(LLM)を活用することで、包括的なレコメンデーションロジック生成の新しい機会を提供する。
レコメンデーションタスクのための微調整LDMモデルは、計算コストと既存のシステムとのアライメントの問題を引き起こす。
本研究は,LLMとオンラインレコメンデーションシステムとの連携を,LLMのチューニングを伴わない効果的戦略LANEを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:20:31Z) - CherryRec: Enhancing News Recommendation Quality via LLM-driven Framework [4.4206696279087]
我々は,textitCherryRecという名前のLarge Language Models (LLMs) を用いたニュースレコメンデーションフレームワークを提案する。
CherryRecは、レコメンデーションプロセスを加速しながら、レコメンデーションの品質を保証する。
提案手法の有効性を,ベンチマークデータセット上での最先端のベースライン手法と比較することにより検証する。
論文 参考訳(メタデータ) (2024-06-18T03:33:38Z) - Supportiveness-based Knowledge Rewriting for Retrieval-augmented Language Modeling [65.72918416258219]
支援性に基づく知識書き換え(SKR)は、LLM生成に本質的に最適化された堅牢でプラガブルな知識書き換えである。
知識支援に基づき、まず、リライターモデルのためのトレーニングデータキュレーション戦略を設計する。
次に、生成したリライトを最適な支持度に調整するために、直接選好最適化(DPO)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-06-12T11:52:35Z) - News Recommendation with Category Description by a Large Language Model [1.6267479602370543]
テレビゴールドグローブ、金融不動産、ニュース政治といったニュースカテゴリーは、ニュースコンテンツを理解する上で重要な役割を果たしている。
本研究では,大規模言語モデルを用いて情報カテゴリー記述を自動的に生成する手法を提案する。
基準法に比べてAUCでは5.8%の改善が得られた。
論文 参考訳(メタデータ) (2024-05-13T08:53:43Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。