論文の概要: ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models
- arxiv url: http://arxiv.org/abs/2305.06566v3
- Date: Wed, 30 Aug 2023 06:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 17:12:29.930180
- Title: ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models
- Title(参考訳): ONCE: オープンソースとオープンソースの両方の大規模言語モデルによるコンテンツベース勧告の強化
- Authors: Qijiong Liu, Nuo Chen, Tetsuya Sakai, Xiao-Ming Wu
- Abstract要約: 大規模言語モデル(LLM)は、事前学習から深い意味理解と広範な知識を持っている。
我々は、コンテンツベースのレコメンデーションを強化するために、オープンソースLLMとクローズドソースLLMの両方を活用する可能性を探る。
既存の最先端レコメンデーションモデルと比較して, 最大19.32%の大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 39.193602991105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized content-based recommender systems have become indispensable
tools for users to navigate through the vast amount of content available on
platforms like daily news websites and book recommendation services. However,
existing recommenders face significant challenges in understanding the content
of items. Large language models (LLMs), which possess deep semantic
comprehension and extensive knowledge from pretraining, have proven to be
effective in various natural language processing tasks. In this study, we
explore the potential of leveraging both open- and closed-source LLMs to
enhance content-based recommendation. With open-source LLMs, we utilize their
deep layers as content encoders, enriching the representation of content at the
embedding level. For closed-source LLMs, we employ prompting techniques to
enrich the training data at the token level. Through comprehensive experiments,
we demonstrate the high effectiveness of both types of LLMs and show the
synergistic relationship between them. Notably, we observed a significant
relative improvement of up to 19.32% compared to existing state-of-the-art
recommendation models. These findings highlight the immense potential of both
open- and closed-source of LLMs in enhancing content-based recommendation
systems. We will make our code and LLM-generated data available for other
researchers to reproduce our results.
- Abstract(参考訳): パーソナライズされたコンテンツベースのレコメンデーションシステムは、ユーザーが毎日のニュースウェブサイトや書籍レコメンデーションサービスのようなプラットフォームで利用可能な膨大なコンテンツをナビゲートするために欠かせないツールになっている。
しかし、既存の推奨者は、アイテムの内容を理解する上で重大な課題に直面している。
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて、深い意味理解と事前学習からの広範な知識を有することが証明されている。
本研究では,コンテンツベースのレコメンデーションを強化するために,オープンソース LLM とクローズドソース LLM の両方を活用する可能性を検討する。
オープンソースのllmでは、その深層をコンテンツエンコーダとして利用し、埋め込みレベルでコンテンツの表現を強化しています。
クローズドソース LLM では,トークンレベルでのトレーニングデータを強化するためのプロンプト技術を採用している。
総合的な実験を通じて,両タイプのLLMの有効性を実証し,両者の相乗的関係を示す。
注目すべきは,既存の推奨モデルと比較して,最大19.32%の相対的な改善が見られたことだ。
これらの知見は、コンテンツベースレコメンデーションシステムの強化において、LLMのオープンソースとクローズドソースの両方が大きな可能性を示している。
コードとLLM生成データを他の研究者が利用できるようにし、その結果を再現します。
関連論文リスト
- HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Do Large Language Models Need a Content Delivery Network? [4.816440228214873]
我々は、LLMエンジンや他の計算および記憶資源間でKVキャッシュのストレージ、転送、構成を動的に最適化する知識配信ネットワーク(KDN)を構想する。
我々は、KDNプロトタイプをhttps://github.com/LMCache/LMCacheでオープンソース化しました。
論文 参考訳(メタデータ) (2024-09-16T18:46:24Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series [86.31735321970481]
私たちはMAP-Neoをオープンソースにしました。これは、4.5Tの高品質トークン上で、スクラッチからトレーニングされた7Bパラメータを持つバイリンガル言語モデルです。
MAP-Neo は,既存の最先端 LLM と比較して性能が劣る初の完全オープンソースバイリンガル LLM である。
論文 参考訳(メタデータ) (2024-05-29T17:57:16Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。