論文の概要: Enhancing E-Commerce Recommendation using Pre-Trained Language Model and
Fine-Tuning
- arxiv url: http://arxiv.org/abs/2302.04443v1
- Date: Thu, 9 Feb 2023 05:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:47:36.916989
- Title: Enhancing E-Commerce Recommendation using Pre-Trained Language Model and
Fine-Tuning
- Title(参考訳): 事前学習言語モデルとファインチューニングを用いたEコマース勧告の強化
- Authors: Nuofan Xu, Chenhui Hu
- Abstract要約: 本稿では,事前学習した言語モデルを推薦アルゴリズムに組み込むことがeコマースデータセットに与える影響について検討する。
PLMとドメイン固有微調整の適用により,複合モデルの予測能力が向上することを示す。
- 参考スコア(独自算出の注目度): 3.5679973993372642
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pretrained Language Models (PLM) have been greatly successful on a board
range of natural language processing (NLP) tasks. However, it has just started
being applied to the domain of recommendation systems. Traditional
recommendation algorithms failed to incorporate the rich textual information in
e-commerce datasets, which hinderss the performance of those models. We present
a thorough investigation on the effect of various strategy of incorporating
PLMs into traditional recommender algorithms on one of the e-commerce datasets,
and we compare the results with vanilla recommender baseline models. We show
that the application of PLMs and domain specific fine-tuning lead to an
increase on the predictive capability of combined models. These results
accentuate the importance of utilizing textual information in the context of
e-commerce, and provides insight on how to better apply PLMs alongside
traditional recommender system algorithms. The code used in this paper is
available on Github: https://github.com/NuofanXu/bert_retail_recommender.
- Abstract(参考訳): Pretrained Language Models (PLM) は、自然言語処理(NLP)タスクのボード範囲において大きな成功を収めている。
しかし、それはレコメンデーション・システムの分野で適用され始めたばかりです。
従来のレコメンデーションアルゴリズムは、リッチなテキスト情報をeコマースデータセットに組み込むことができなかった。
本稿では,従来のレコメンダアルゴリズムにplmを組み込む様々な戦略が,eコマースデータセットの1つに与える影響を徹底的に調査し,その結果をバニラレコメンダベースラインモデルと比較する。
我々は、plmとドメイン固有の微調整の適用により、複合モデルの予測能力が向上することを示す。
これらの結果は、eコマースの文脈でテキスト情報を活用することの重要性を強調し、従来のレコメンダシステムアルゴリズムとplmを併用する方法に関する洞察を提供する。
この論文で使われているコードはgithubで入手できる。
関連論文リスト
- Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecExplainer: Aligning Large Language Models for Recommendation Model
Interpretability [53.76682562935373]
本稿では,大規模言語モデルを代理モデルとして用いて,推薦システムに対する新しいモデル解釈手法を提案する。
具体的には,行動アライメント,意図アライメント,ハイブリッドアライメントという3つのアライメント手法を導入する。
提案手法により,LLMはレコメンデーションモデルのパターンを理解し,信頼性の高いレコメンデーション説明を生成することができる。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest
with Content-enriched Language Modeling [6.52491975632466]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Are Pre-trained Language Models Useful for Model Ensemble in Chinese
Grammatical Error Correction? [10.302225525539003]
4つの洗練された単一モデルを持つ強力なPLMに基づくアンサンブル戦略を探索する。
性能は向上しないが、PLMベースのアンサンブル後にさらに悪化する。
論文 参考訳(メタデータ) (2023-05-24T14:18:52Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Exploring Category Structure with Contextual Language Models and Lexical
Semantic Networks [0.0]
我々は、典型値の予測のために、CLMを探索するためのより広い範囲の手法を試験する。
BERTを用いた実験では,CLMプローブの適切な利用の重要性が示された。
その結果, この課題における多義性の重要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2023-02-14T09:57:23Z) - Developing a Recommendation Benchmark for MLPerf Training and Inference [16.471395965484145]
我々は、Theerferf Training and Inference Suitesの業界関連レコメンデーションベンチマークを定義することを目指している。
本稿では、パーソナライズされたレコメンデーションシステムのための望ましいモデリング戦略を合成する。
我々はレコメンデーションモデルアーキテクチャとデータセットの望ましい特徴を概説する。
論文 参考訳(メタデータ) (2020-03-16T17:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。