論文の概要: A First Look at LLM-Powered Generative News Recommendation
- arxiv url: http://arxiv.org/abs/2305.06566v2
- Date: Sun, 4 Jun 2023 02:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 01:29:24.823770
- Title: A First Look at LLM-Powered Generative News Recommendation
- Title(参考訳): llmによるジェネレイティブニュースレコメンデーションを初めて見る
- Authors: Qijiong Liu, Nuo Chen, Tetsuya Sakai, Xiao-Ming Wu
- Abstract要約: LLMを利用したジェネレーションニュースレコメンデーションフレームワークであるGENREを紹介する。
本稿では、パーソナライズされたニュース生成、ユーザプロファイリング、ニュース要約におけるGENREの使用について紹介する。
- 参考スコア(独自算出の注目度): 37.63412200419027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized news recommendation systems have become essential tools for
users to navigate the vast amount of online news content, yet existing news
recommenders face significant challenges such as the cold-start problem, user
profile modeling, and news content understanding. Previous works have typically
followed an inflexible routine to address a particular challenge through model
design, but are limited in their ability to understand news content and capture
user interests. In this paper, we introduce GENRE, an LLM-powered generative
news recommendation framework, which leverages pretrained semantic knowledge
from large language models to enrich news data. Our aim is to provide a
flexible and unified solution for news recommendation by moving from model
design to prompt design. We showcase the use of GENRE for personalized news
generation, user profiling, and news summarization. Extensive experiments with
various popular recommendation models demonstrate the effectiveness of GENRE.
We will publish our code and data for other researchers to reproduce our work.
- Abstract(参考訳): パーソナライズされたニュースレコメンデーションシステムは、ユーザーが大量のオンラインニュースコンテンツをナビゲートするために欠かせないツールとなっているが、既存のニュースレコメンデーターは、コールドスタート問題、ユーザープロファイルモデリング、ニュースコンテンツ理解といった重要な課題に直面している。
それまでの作品は、モデル設計を通じて特定の課題に対処するために柔軟性のないルーチンに従ってきたが、ニュースコンテンツを理解し、ユーザーの興味を捉える能力に制限がある。
本稿では,大規模言語モデルから事前学習された意味的知識を活用し,ニュースデータを強化した,llmを活用したニュースレコメンデーションフレームワークであるaversationを紹介する。
当社の目標は,モデル設計から迅速な設計に移行することで,ニュースレコメンデーションのフレキシブルで統一的なソリューションを提供することです。
本稿では、パーソナライズされたニュース生成、ユーザプロファイリング、ニュース要約におけるGENREの使用について紹介する。
様々なリコメンデーションモデルを用いた大規模な実験は、genREの有効性を示す。
他の研究者が作業を再現するために、コードとデータを公開します。
関連論文リスト
- HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Do Large Language Models Need a Content Delivery Network? [4.816440228214873]
我々は、LLMエンジンや他の計算および記憶資源間でKVキャッシュのストレージ、転送、構成を動的に最適化する知識配信ネットワーク(KDN)を構想する。
我々は、KDNプロトタイプをhttps://github.com/LMCache/LMCacheでオープンソース化しました。
論文 参考訳(メタデータ) (2024-09-16T18:46:24Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series [86.31735321970481]
私たちはMAP-Neoをオープンソースにしました。これは、4.5Tの高品質トークン上で、スクラッチからトレーニングされた7Bパラメータを持つバイリンガル言語モデルです。
MAP-Neo は,既存の最先端 LLM と比較して性能が劣る初の完全オープンソースバイリンガル LLM である。
論文 参考訳(メタデータ) (2024-05-29T17:57:16Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。