論文の概要: Leveraging Large Language Models to Enhance Personalized Recommendations in E-commerce
- arxiv url: http://arxiv.org/abs/2410.12829v1
- Date: Wed, 02 Oct 2024 13:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 14:30:28.770128
- Title: Leveraging Large Language Models to Enhance Personalized Recommendations in E-commerce
- Title(参考訳): 大規模言語モデルを活用したeコマースにおけるパーソナライズされたレコメンデーションの促進
- Authors: Wei Xu, Jue Xiao, Jianlong Chen,
- Abstract要約: 本研究では,eコマースのパーソナライズされたレコメンデーションシステムにおける大規模言語モデル(LLM)の適用について検討する。
LLMは、ユーザコメントと製品記述データの深いセマンティック理解を通じて、ユーザの暗黙的なニーズを効果的に捉えます。
この研究は、パーソナライズされたレコメンデーション分野においてLLMが大きなアドバンテージがあることを示し、ユーザーエクスペリエンスを改善し、プラットフォーム販売の成長を促進することを示唆している。
- 参考スコア(独自算出の注目度): 6.660249346977347
- License:
- Abstract: This study deeply explores the application of large language model (LLM) in personalized recommendation system of e-commerce. Aiming at the limitations of traditional recommendation algorithms in processing large-scale and multi-dimensional data, a recommendation system framework based on LLM is proposed. Through comparative experiments, the recommendation model based on LLM shows significant improvement in multiple key indicators such as precision, recall, F1 score, average click-through rate (CTR) and recommendation diversity. Specifically, the precision of the LLM model is improved from 0.75 to 0.82, the recall rate is increased from 0.68 to 0.77, the F1 score is increased from 0.71 to 0.79, the CTR is increased from 0.56 to 0.63, and the recommendation diversity is increased by 41.2%, from 0.34 to 0.48. LLM effectively captures the implicit needs of users through deep semantic understanding of user comments and product description data, and combines contextual data for dynamic recommendation to generate more accurate and diverse results. The study shows that LLM has significant advantages in the field of personalized recommendation, can improve user experience and promote platform sales growth, and provides strong theoretical and practical support for personalized recommendation technology in e-commerce.
- Abstract(参考訳): 本研究では,eコマースのパーソナライズされたレコメンデーションシステムにおける大規模言語モデル(LLM)の適用について深く検討する。
大規模・多次元データ処理における従来のレコメンデーションアルゴリズムの限界に着目し,LLMに基づくレコメンデーションシステムフレームワークを提案する。
比較実験を通じて、LLMに基づく推薦モデルは、精度、リコール、F1スコア、平均クリックスルーレート(CTR)、レコメンデーション多様性など、複数の重要な指標において顕著な改善を示す。
具体的には、LCMモデルの精度を0.75〜0.82に改善し、リコールレートを0.68〜0.77に、F1スコアを0.71〜0.79に、CTRを0.56〜0.63に、レコメンデーション多様性を41.2%、0.34〜0.48に向上させる。
LLMは、ユーザコメントと製品記述データの深いセマンティック理解を通じて、ユーザの暗黙的なニーズを効果的に捉え、動的レコメンデーションのためにコンテキストデータを組み合わせて、より正確で多様な結果を生成する。
本研究は、パーソナライズドレコメンデーション分野において大きな優位性を示し、ユーザエクスペリエンスを改善し、プラットフォーム販売の成長を促進するとともに、電子商取引におけるパーソナライズドレコメンデーション技術に対する理論的および実践的支援を提供する。
関連論文リスト
- Comparing Retrieval-Augmentation and Parameter-Efficient Fine-Tuning for Privacy-Preserving Personalization of Large Language Models [21.115495457454365]
本稿では,パーソナライズタスクにおける2つのアプローチの体系的比較を行った。
RAGに基づくパーソナライズ法とPEFTに基づくパーソナライズ法は, 平均収率14.92%と, 非パーソナライズ LLM に対する1.07%の改善が認められた。
論文 参考訳(メタデータ) (2024-09-14T19:18:26Z) - Toward Automatic Relevance Judgment using Vision--Language Models for Image--Text Retrieval Evaluation [56.49084589053732]
VLM(Vision-Language Models)は、様々なアプリケーションで成功を収めてきたが、関連性判断を支援する可能性はまだ不明である。
本稿では,CLIP,LLaVA,GPT-4Vを含むVLMの関連性評価機能について,ゼロショット方式でマルチメディアコンテンツ作成に適した大規模テキスト分割ホック検索タスクで評価する。
論文 参考訳(メタデータ) (2024-08-02T16:15:25Z) - On Softmax Direct Preference Optimization for Recommendation [50.896117978746]
そこで我々は,LMをベースとした推奨項目の識別を支援するために,ランキング情報をLMに挿入するソフトマックスDPO(S-DPO)を提案する。
具体的には、ユーザの嗜好データに複数の負を組み込んで、LMベースのレコメンデータに適したDPO損失の代替版を考案する。
論文 参考訳(メタデータ) (2024-06-13T15:16:11Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations [11.198481792194452]
大規模なレコメンデーションシステムは、毎日数千億のユーザーアクションを扱う必要がある。
何千もの機能を備えた大量のデータでトレーニングされているにも関わらず、業界におけるほとんどのDeep Learning Recommendation Model(DLRM)は、計算処理ではスケールできない。
言語および視覚領域におけるトランスフォーマーの成功に触発され、推奨システムの基本設計選択を再考する。
論文 参考訳(メタデータ) (2024-02-27T02:37:37Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - What Are We Optimizing For? A Human-centric Evaluation of Deep Learning-based Movie Recommenders [12.132920692489911]
映画領域における4つのDL-RecSysモデルの人間中心評価ケーススタディを行う。
DL-RecSysモデルがパーソナライズされたレコメンデーション生成において,445人の実アクティブユーザを対象に調査を行った。
いくつかのDL-RecSysモデルは、新規で予期せぬ項目を推奨し、多様性、信頼性、透明性、正確性、全体的なユーザ満足度が低下している。
論文 参考訳(メタデータ) (2024-01-21T23:56:57Z) - On Diversified Preferences of Large Language Model Alignment [51.26149027399505]
本稿では,様々な大きさの報酬モデルに対する実験スケーリング法則の定量的解析を行った。
分析の結果,ヒトの嗜好の多様化による影響は,モデルサイズとデータサイズの両方に依存することが明らかとなった。
十分なキャパシティを持つ大きなモデルでは、さまざまな好みによるネガティブな影響が軽減される一方、より小さなモデルはそれらに対応するのに苦労する。
論文 参考訳(メタデータ) (2023-12-12T16:17:15Z) - An Efficient Recommendation System in E-commerce using Passer learning
optimization based on Bi-LSTM [0.8399688944263843]
本研究では,Bi-LSTMに基づく通行人学習最適化を用いたeコマースのレコメンデーションを開発する。
従来の手法と比較すると、PL最適化Bi-LSTMはデータセット1, 88.58%, 1.24%, 92.69%, 92.69%, データセット1, 88.46%, 0.48%, 92.43%, 93.47%, データセット2, 92.51%, 1.58%, 91.90%, 90.76%の値を得た。
論文 参考訳(メタデータ) (2023-07-31T20:09:25Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。