論文の概要: Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns
- arxiv url: http://arxiv.org/abs/2411.06046v1
- Date: Sat, 09 Nov 2024 03:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:00.154904
- Title: Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns
- Title(参考訳): LLM埋め込みと共起パターンによるパーソナライズされたニュースレコメンデーションシステム
- Authors: Zheng Li, Kai Zhange,
- Abstract要約: ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
本稿では,LLM埋め込みと共起パターン(LECOP)を用いた新しいNRアルゴリズムを提案する。
大規模実験により,提案手法の優れた性能を実証した。
- 参考スコア(独自算出の注目度): 6.4561443264763625
- License:
- Abstract: In the past two years, large language models (LLMs) have achieved rapid development and demonstrated remarkable emerging capabilities. Concurrently, with powerful semantic understanding and reasoning capabilities, LLMs have significantly empowered the rapid advancement of the recommendation system field. Specifically, in news recommendation (NR), systems must comprehend and process a vast amount of clicked news text to infer the probability of candidate news clicks. This requirement exceeds the capabilities of traditional NR models but aligns well with the strengths of LLMs. In this paper, we propose a novel NR algorithm to reshape the news model via LLM Embedding and Co-Occurrence Pattern (LECOP). On one hand, we fintuned LLM by contrastive learning using large-scale datasets to encode news, which can fully explore the semantic information of news to thoroughly identify user preferences. On the other hand, we explored multiple co-occurrence patterns to mine collaborative information. Those patterns include news ID co-occurrence, Item-Item keywords co-occurrence and Intra-Item keywords co-occurrence. The keywords mentioned above are all generated by LLM. As far as we know, this is the first time that constructing such detailed Co-Occurrence Patterns via LLM to capture collaboration. Extensive experiments demonstrate the superior performance of our proposed novel method
- Abstract(参考訳): 過去2年間で、大規模言語モデル(LLM)は急速に開発が進み、目覚ましい能力を発揮した。
同時に、強力な意味理解と推論能力により、LLMはレコメンデーションシステム分野の急速な進歩に大きく貢献している。
特に、ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
この要件は従来のNRモデルの能力を超えているが、LLMの強度とよく一致している。
本稿では,LLM Embedding and Co-Occurrence Pattern (LECOP) を用いた新しいNRアルゴリズムを提案する。
一方,LLMでは,大規模データセットを用いたコントラスト学習を用いて,ニュースをエンコードすることで,ニュースの意味情報を完全に探索し,ユーザの嗜好を徹底的に識別する。
一方、協調情報をマイニングするために複数の共起パターンを探索した。
これらのパターンには、ニュースIDの共起、アイテムキーワードの共起、アイテム内キーワードの共起が含まれる。
上記のキーワードはすべてLLMによって生成される。
私たちが知る限り、コラボレーションを捉えるためにLLMを通じて、このような詳細な共起パターンを構築するのは、これが初めてです。
大規模実験により提案手法の優れた性能が実証された。
関連論文リスト
- Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.912663905306209]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - CoRA: Collaborative Information Perception by Large Language Model's Weights for Recommendation [13.867950651601483]
LLM(Large Language Models)における協調情報の導入は,LLMを推奨に適応させる上で有望な手法である。
既存の手法では、テキストトークンと協調的な特徴を統一シーケンス入力に結合することでこれを実現する。
協調的なクエリジェネレータを備えた新しいパラダイムである textbfCollaborative textbfLoRA を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:36:59Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Rethinking Visual Prompting for Multimodal Large Language Models with External Knowledge [76.45868419402265]
マルチモーダルな大言語モデル(MLLM)は、膨大な高品質の画像テキストデータセットをトレーニングすることで、大きな進歩を遂げている。
しかし、マスクのような細粒度や空間的に密集した情報をテキストで明示的に伝達することの難しさは、MLLMにとって困難である。
本稿では、特殊な視覚モデルから派生した細粒度の外部知識をMLLMに統合する新しい視覚的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T17:43:30Z) - LLM Attributor: Interactive Visual Attribution for LLM Generation [29.116016627864095]
Pythonライブラリは、大規模な言語モデルのデータ属性をトレーニングするためのインタラクティブな視覚化を提供する。
我々のライブラリは、LCMのテキスト生成をデータポイントのトレーニングに素早く対応させる新しい方法を提供する。
論文 参考訳(メタデータ) (2024-04-01T13:16:34Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - A Survey on Multimodal Large Language Models [71.63375558033364]
GPT-4Vで表されるマルチモーダル大言語モデル(MLLM)は、新たな研究ホットスポットとなっている。
本稿では,MLLMの最近の進歩を追跡・要約することを目的とする。
論文 参考訳(メタデータ) (2023-06-23T15:21:52Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Element-aware Summarization with Large Language Models: Expert-aligned
Evaluation and Chain-of-Thought Method [35.181659789684545]
自動要約は、ソースドキュメントのキーアイデアを含む簡潔な要約を生成する。
CNN/DailyMailやBBC XSumからの引用は、主に幻覚と情報冗長性の点で騒々しい。
本稿では,LCMを段階的に生成するためにSumCoT(Slide Chain-of-Thought)手法を提案する。
実験結果から, ROUGE-L では, 最先端の微調整 PLM とゼロショット LLM を+4.33/+4.77 で上回った。
論文 参考訳(メタデータ) (2023-05-22T18:54:35Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。