論文の概要: Language Modeling for Content-enriched Recommendation
- arxiv url: http://arxiv.org/abs/2309.10435v3
- Date: Fri, 22 Mar 2024 05:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 22:49:51.989179
- Title: Language Modeling for Content-enriched Recommendation
- Title(参考訳): コンテンツ強化レコメンデーションのための言語モデリング
- Authors: Junzhe Jiang, Shang Qu, Mingyue Cheng, Qi Liu, Zhiding Liu, Hao Zhang, Rujiao Zhang, Kai Zhang, Rui Li, Jiatong Li, Min Gao,
- Abstract要約: 本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
- 参考スコア(独自算出の注目度): 18.297332953450514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are indispensable in the realm of online applications, and sequential recommendation has enjoyed considerable prevalence due to its capacity to encapsulate the dynamic shifts in user interests. However, previous sequential modeling methods still have limitations in capturing contextual information. The primary reason is the lack of understanding of domain-specific knowledge and item-related textual content by language models. Fortunately, the emergence of powerful language models has unlocked the potential to incorporate extensive world knowledge into recommendation algorithms, enabling them to go beyond simple item attributes and truly understand the world surrounding user preferences. To achieve this, we propose LANCER, which leverages the semantic understanding capabilities of pre-trained language models to generate personalized recommendations. Our approach bridges the gap between language models and recommender systems, resulting in more human-like recommendations. We demonstrate the effectiveness of our approach through a series of experiments conducted on multiple benchmark datasets, showing promising results and providing valuable insights into the influence of our model on sequential recommendation tasks. Furthermore, our experimental codes are publicly available.
- Abstract(参考訳): オンラインアプリケーションの領域ではレコメンダシステムは不可欠であり、ユーザ関心の動的シフトをカプセル化できるため、シーケンシャルなレコメンデーションは極めて有益である。
しかし、従来の逐次モデリング手法には、文脈情報の取得に制限がある。
主な理由は、言語モデルによるドメイン固有知識と項目関連テキストの内容の理解の欠如である。
幸いなことに、強力な言語モデルの出現は、幅広い世界の知識をレコメンデーションアルゴリズムに組み込む可能性を解き放った。
そこで本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
複数のベンチマークデータセットで実施した一連の実験を通じて,提案手法の有効性を実証し,有望な結果を示し,逐次的なレコメンデーションタスクに対するモデルの影響について貴重な洞察を提供する。
さらに,実験コードも公開されている。
関連論文リスト
- Exploring the Impact of Large Language Models on Recommender Systems: An Extensive Review [2.780460221321639]
本稿では,リフォームレコメンダシステムにおける大規模言語モデルの重要性について述べる。
LLMは、言葉の複雑な解釈において、その適応性を示す、アイテムを推薦するのに非常に熟練している。
トランスフォーメーションの可能性にもかかわらず、入力プロンプトに対する感受性、時には誤解釈、予期せぬ推奨など、課題は続いている。
論文 参考訳(メタデータ) (2024-02-11T00:24:17Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecExplainer: Aligning Large Language Models for Recommendation Model
Interpretability [53.76682562935373]
本稿では,大規模言語モデルを代理モデルとして用いて,推薦システムに対する新しいモデル解釈手法を提案する。
具体的には,行動アライメント,意図アライメント,ハイブリッドアライメントという3つのアライメント手法を導入する。
提案手法により,LLMはレコメンデーションモデルのパターンを理解し,信頼性の高いレコメンデーション説明を生成することができる。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Improving Conversational Recommender System via Contextual and
Time-Aware Modeling with Less Domain-Specific Knowledge [25.503407835218773]
文脈から内部知識を完全に発見・抽出することを提案する。
エンティティレベルとコンテキストレベルの両方の表現をキャプチャして、リコメンデーションのためのユーザの好みを共同でモデル化する。
我々のモデルは、外部知識の少ないほとんどの評価指標においてより良い性能を達成し、他の領域によく一般化する。
論文 参考訳(メタデータ) (2022-09-23T03:30:22Z) - Discovering Personalized Semantics for Soft Attributes in Recommender
Systems using Concept Activation Vectors [34.56323846959459]
インタラクティブなレコメンデータシステムは、ユーザがよりリッチな方法で意図、好み、制約、コンテキストを表現することを可能にする。
課題の1つは、ユーザのセマンティックな意図を、しばしば望ましい項目を記述するために使用されるオープンエンドの用語や属性から推測することである。
このような属性のセマンティクスを捉える表現を学習し、それをレコメンデーションシステムにおけるユーザの好みや行動に結びつけるためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-02-06T18:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。