論文の概要: Enhancing News Recommendation with Hierarchical LLM Prompting
- arxiv url: http://arxiv.org/abs/2504.20452v1
- Date: Tue, 29 Apr 2025 06:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.770896
- Title: Enhancing News Recommendation with Hierarchical LLM Prompting
- Title(参考訳): 階層型LLMプロンプトによるニュースレコメンデーションの強化
- Authors: Hai-Dang Kieu, Delvin Ce Zhang, Minh Duc Nguyen, Min Xu, Qiang Wu, Dung D. Le,
- Abstract要約: パーソナライズされたニュースレコメンデーションのための大規模言語モデルのためのPNR-LLMを紹介する。
PNR-LLMはLLMの生成能力を利用してニュースタイトルや要約を充実させる。
本稿では,統合されたユーザとニュースの埋め込みを形成する,リッチなセマンティックおよびエンティティレベルのデータを集約するアテンション機構を提案する。
- 参考スコア(独自算出の注目度): 17.481812986550633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized news recommendation systems often struggle to effectively capture the complexity of user preferences, as they rely heavily on shallow representations, such as article titles and abstracts. To address this problem, we introduce a novel method, namely PNR-LLM, for Large Language Models for Personalized News Recommendation. Specifically, PNR-LLM harnesses the generation capabilities of LLMs to enrich news titles and abstracts, and consequently improves recommendation quality. PNR-LLM contains a novel module, News Enrichment via LLMs, which generates deeper semantic information and relevant entities from articles, transforming shallow contents into richer representations. We further propose an attention mechanism to aggregate enriched semantic- and entity-level data, forming unified user and news embeddings that reveal a more accurate user-news match. Extensive experiments on MIND datasets show that PNR-LLM outperforms state-of-the-art baselines. Moreover, the proposed data enrichment module is model-agnostic, and we empirically show that applying our proposed module to multiple existing models can further improve their performance, verifying the advantage of our design.
- Abstract(参考訳): パーソナライズされたニュースレコメンデーションシステムは、記事のタイトルや要約のような浅い表現に大きく依存するため、ユーザの好みの複雑さを効果的に捉えるのに苦労することが多い。
この問題に対処するために、パーソナライズされたニュースレコメンデーションのための大規模言語モデルのための新しい手法であるPNR-LLMを導入する。
具体的には、PNR-LLMはLLMの生成能力を利用してニュースタイトルや要約を充実させ、それによって推奨品質を向上させる。
PNR-LLMには、LLMによるニュースエンリッチメント(News Enrichment)という新しいモジュールが含まれており、記事からより深い意味情報や関連エンティティを生成し、浅い内容をよりリッチな表現に変換する。
さらに,統合されたセマンティックおよびエンティティレベルのデータを集約し,より正確なユーザニューズマッチングを示す統合されたユーザとニュースの埋め込みを構築するためのアテンション機構を提案する。
MINDデータセットの大規模な実験は、PNR-LLMが最先端のベースラインより優れていることを示している。
さらに,提案するデータエンリッチメントモジュールはモデルに依存しないため,提案するモジュールを複数の既存モデルに適用することで,その性能をさらに向上し,設計上の利点を検証できることを実証的に示す。
関連論文リスト
- Revisiting Language Models in Neural News Recommender Systems [48.372289545886495]
ニューラルニュースレコメンダシステム(RS)は、リッチなテキスト情報を持つニュース記事を表現にエンコードする言語モデル(LM)を備えている。
多くの研究は、(i)ニュースRSは、浅い言語モデル(SLM)よりも大きな事前学習言語モデル(PLM)でより良いパフォーマンスを達成することを示唆している。
本稿では、実世界のMINDデータセットを用いて、ニュースRSにおけるLMの有効性について、これらの比較を再検討し、統一し、拡張する。
論文 参考訳(メタデータ) (2025-01-20T10:35:36Z) - Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns [6.4561443264763625]
ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
本稿では,LLM埋め込みと共起パターン(LECOP)を用いた新しいNRアルゴリズムを提案する。
大規模実験により,提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2024-11-09T03:01:49Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.73461454584274]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - News Recommendation with Category Description by a Large Language Model [1.6267479602370543]
テレビゴールドグローブ、金融不動産、ニュース政治といったニュースカテゴリーは、ニュースコンテンツを理解する上で重要な役割を果たしている。
本研究では,大規模言語モデルを用いて情報カテゴリー記述を自動的に生成する手法を提案する。
基準法に比べてAUCでは5.8%の改善が得られた。
論文 参考訳(メタデータ) (2024-05-13T08:53:43Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Why Do We Click: Visual Impression-aware News Recommendation [108.73539346064386]
この作品は、ユーザーがニュースを閲覧する際に感じる視覚的印象に基づいてクリック決定を行うという事実にインスパイアされている。
本稿では,ニュースレコメンデーションのためのビジュアル・セマンティック・モデリングを用いて,このような視覚印象情報を捉えることを提案する。
さらに、グローバルな視点から印象を検査し、異なるフィールドの配置や印象に対する異なる単語の空間的位置などの構造情報を抽出する。
論文 参考訳(メタデータ) (2021-09-26T16:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。