論文の概要: Leveraging Large Language Models to Enhance Personalized Recommendations in E-commerce
- arxiv url: http://arxiv.org/abs/2410.12829v1
- Date: Wed, 02 Oct 2024 13:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 14:30:28.770128
- Title: Leveraging Large Language Models to Enhance Personalized Recommendations in E-commerce
- Title(参考訳): 大規模言語モデルを活用したeコマースにおけるパーソナライズされたレコメンデーションの促進
- Authors: Wei Xu, Jue Xiao, Jianlong Chen,
- Abstract要約: 本研究では,eコマースのパーソナライズされたレコメンデーションシステムにおける大規模言語モデル(LLM)の適用について検討する。
LLMは、ユーザコメントと製品記述データの深いセマンティック理解を通じて、ユーザの暗黙的なニーズを効果的に捉えます。
この研究は、パーソナライズされたレコメンデーション分野においてLLMが大きなアドバンテージがあることを示し、ユーザーエクスペリエンスを改善し、プラットフォーム販売の成長を促進することを示唆している。
- 参考スコア(独自算出の注目度): 6.660249346977347
- License:
- Abstract: This study deeply explores the application of large language model (LLM) in personalized recommendation system of e-commerce. Aiming at the limitations of traditional recommendation algorithms in processing large-scale and multi-dimensional data, a recommendation system framework based on LLM is proposed. Through comparative experiments, the recommendation model based on LLM shows significant improvement in multiple key indicators such as precision, recall, F1 score, average click-through rate (CTR) and recommendation diversity. Specifically, the precision of the LLM model is improved from 0.75 to 0.82, the recall rate is increased from 0.68 to 0.77, the F1 score is increased from 0.71 to 0.79, the CTR is increased from 0.56 to 0.63, and the recommendation diversity is increased by 41.2%, from 0.34 to 0.48. LLM effectively captures the implicit needs of users through deep semantic understanding of user comments and product description data, and combines contextual data for dynamic recommendation to generate more accurate and diverse results. The study shows that LLM has significant advantages in the field of personalized recommendation, can improve user experience and promote platform sales growth, and provides strong theoretical and practical support for personalized recommendation technology in e-commerce.
- Abstract(参考訳): 本研究では,eコマースのパーソナライズされたレコメンデーションシステムにおける大規模言語モデル(LLM)の適用について深く検討する。
大規模・多次元データ処理における従来のレコメンデーションアルゴリズムの限界に着目し,LLMに基づくレコメンデーションシステムフレームワークを提案する。
比較実験を通じて、LLMに基づく推薦モデルは、精度、リコール、F1スコア、平均クリックスルーレート(CTR)、レコメンデーション多様性など、複数の重要な指標において顕著な改善を示す。
具体的には、LCMモデルの精度を0.75〜0.82に改善し、リコールレートを0.68〜0.77に、F1スコアを0.71〜0.79に、CTRを0.56〜0.63に、レコメンデーション多様性を41.2%、0.34〜0.48に向上させる。
LLMは、ユーザコメントと製品記述データの深いセマンティック理解を通じて、ユーザの暗黙的なニーズを効果的に捉え、動的レコメンデーションのためにコンテキストデータを組み合わせて、より正確で多様な結果を生成する。
本研究は、パーソナライズドレコメンデーション分野において大きな優位性を示し、ユーザエクスペリエンスを改善し、プラットフォーム販売の成長を促進するとともに、電子商取引におけるパーソナライズドレコメンデーション技術に対する理論的および実践的支援を提供する。
関連論文リスト
- Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
本稿では,MLLMのマルチモーダル推論能力を高めるための選好最適化プロセスを提案する。
我々は,マルチモーダルCoT性能を向上する,MPO(Mixed Preference Optimization)と呼ばれるシンプルで効果的な手法を開発した。
我々のモデルであるInternVL2-8B-MPOは、MathVista上で67.0の精度を実現し、InternVL2-8Bを8.7ポイント上回り、10倍のInternVL2-76Bに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - CDR: Customizable Density Ratios of Strong-over-weak LLMs for Preference Annotation [15.776175440446414]
大規模言語モデル(LLM)の優先度調整は、高品質な人間の嗜好データに依存している。
そこで本研究では,既製のLCMを優先データアノテーションとして活用するトレーニングフリーかつ高効率な手法であるカスタマイズ密度比(CDR)を導入する。
本研究では,特定基準と嗜好を組み込んだ密度比報酬関数の調整により,領域内および対象領域内での性能が向上することを示す。
論文 参考訳(メタデータ) (2024-11-04T18:54:39Z) - RosePO: Aligning LLM-based Recommenders with Human Values [38.029251417802044]
我々は、パーソナライズされた選好最適化(RosePO)を円滑にするための一般的なフレームワークを提案する。
RosePOは、トレーニング後の段階において、カスタマイズされた人的価値との整合性が向上する。
実世界の3つのデータセットの評価は,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-10-16T12:54:34Z) - Toward Automatic Relevance Judgment using Vision--Language Models for Image--Text Retrieval Evaluation [56.49084589053732]
VLM(Vision-Language Models)は、様々なアプリケーションで成功を収めてきたが、関連性判断を支援する可能性はまだ不明である。
本稿では,CLIP,LLaVA,GPT-4Vを含むVLMの関連性評価機能について,ゼロショット方式でマルチメディアコンテンツ作成に適した大規模テキスト分割ホック検索タスクで評価する。
論文 参考訳(メタデータ) (2024-08-02T16:15:25Z) - On Softmax Direct Preference Optimization for Recommendation [50.896117978746]
そこで我々は,LMをベースとした推奨項目の識別を支援するために,ランキング情報をLMに挿入するソフトマックスDPO(S-DPO)を提案する。
具体的には、ユーザの嗜好データに複数の負を組み込んで、LMベースのレコメンデータに適したDPO損失の代替版を考案する。
論文 参考訳(メタデータ) (2024-06-13T15:16:11Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - What Are We Optimizing For? A Human-centric Evaluation of Deep Learning-based Movie Recommenders [12.132920692489911]
映画領域における4つのDL-RecSysモデルの人間中心評価ケーススタディを行う。
DL-RecSysモデルがパーソナライズされたレコメンデーション生成において,445人の実アクティブユーザを対象に調査を行った。
いくつかのDL-RecSysモデルは、新規で予期せぬ項目を推奨し、多様性、信頼性、透明性、正確性、全体的なユーザ満足度が低下している。
論文 参考訳(メタデータ) (2024-01-21T23:56:57Z) - On Diversified Preferences of Large Language Model Alignment [51.26149027399505]
本稿では,様々な大きさの報酬モデルに対する実験スケーリング法則の定量的解析を行った。
分析の結果,ヒトの嗜好の多様化による影響は,モデルサイズとデータサイズの両方に依存することが明らかとなった。
十分なキャパシティを持つ大きなモデルでは、さまざまな好みによるネガティブな影響が軽減される一方、より小さなモデルはそれらに対応するのに苦労する。
論文 参考訳(メタデータ) (2023-12-12T16:17:15Z) - An Efficient Recommendation System in E-commerce using Passer learning
optimization based on Bi-LSTM [0.8399688944263843]
本研究では,Bi-LSTMに基づく通行人学習最適化を用いたeコマースのレコメンデーションを開発する。
従来の手法と比較すると、PL最適化Bi-LSTMはデータセット1, 88.58%, 1.24%, 92.69%, 92.69%, データセット1, 88.46%, 0.48%, 92.43%, 93.47%, データセット2, 92.51%, 1.58%, 91.90%, 90.76%の値を得た。
論文 参考訳(メタデータ) (2023-07-31T20:09:25Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。