論文の概要: Research on E-Commerce Long-Tail Product Recommendation Mechanism Based on Large-Scale Language Models
- arxiv url: http://arxiv.org/abs/2506.06336v1
- Date: Sat, 31 May 2025 19:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.018975
- Title: Research on E-Commerce Long-Tail Product Recommendation Mechanism Based on Large-Scale Language Models
- Title(参考訳): 大規模言語モデルに基づくEコマース型長期製品推薦機構に関する研究
- Authors: Qingyi Lu, Haotian Lyu, Jiayun Zheng, Yang Wang, Li Zhang, Chengrui Zhou,
- Abstract要約: 大規模言語モデル(LLM)を用いた製品記述とユーザ行動シーケンスを統合した,新しいロングテール製品レコメンデーション機構を提案する。
我々の研究は、今後のeコマースレコメンデーションシステムにおいて、製品コンテンツとユーザ意図を解釈するLLMの可能性を強調します。
- 参考スコア(独自算出の注目度): 7.792622257477251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As e-commerce platforms expand their product catalogs, accurately recommending long-tail items becomes increasingly important for enhancing both user experience and platform revenue. A key challenge is the long-tail problem, where extreme data sparsity and cold-start issues limit the performance of traditional recommendation methods. To address this, we propose a novel long-tail product recommendation mechanism that integrates product text descriptions and user behavior sequences using a large-scale language model (LLM). First, we introduce a semantic visor, which leverages a pre-trained LLM to convert multimodal textual content such as product titles, descriptions, and user reviews into meaningful embeddings. These embeddings help represent item-level semantics effectively. We then employ an attention-based user intent encoder that captures users' latent interests, especially toward long-tail items, by modeling collaborative behavior patterns. These components feed into a hybrid ranking model that fuses semantic similarity scores, collaborative filtering outputs, and LLM-generated recommendation candidates. Extensive experiments on a real-world e-commerce dataset show that our method outperforms baseline models in recall (+12%), hit rate (+9%), and user coverage (+15%). These improvements lead to better exposure and purchase rates for long-tail products. Our work highlights the potential of LLMs in interpreting product content and user intent, offering a promising direction for future e-commerce recommendation systems.
- Abstract(参考訳): 電子商取引プラットフォームが製品カタログを拡大するにつれ、ユーザーエクスペリエンスとプラットフォーム収益の両面において、ロングテールアイテムを正確に推奨することがますます重要になっている。
重要な課題はロングテールの問題であり、極端なデータ空間とコールドスタートの問題によって従来のレコメンデーションメソッドのパフォーマンスが制限される。
そこで本研究では,大規模言語モデル(LLM)を用いて,製品記述とユーザ行動シーケンスを統合した新しいロングテール製品レコメンデーション機構を提案する。
まず,事前学習したLCMを利用して,製品タイトルや説明文,ユーザレビューなどのマルチモーダルテキストコンテンツを意味のある埋め込みに変換するセマンティックバイザを導入する。
これらの埋め込みはアイテムレベルのセマンティクスを効果的に表現するのに役立ちます。
次に、注意に基づくユーザインテントエンコーダを用いて、特にロングテールアイテムに対するユーザの潜在関心を、協調行動パターンをモデル化する。
これらのコンポーネントは、セマンティック類似度スコア、協調フィルタリング出力、LLM生成レコメンデーション候補を融合したハイブリッドランキングモデルにフィードする。
実世界のeコマースデータセットに対する大規模な実験により、我々の手法はリコール(+12%)、ヒットレート(+9%)、ユーザカバレッジ(+15%)においてベースラインモデルを上回る結果を得た。
これらの改善は、ロングテール製品の露出と購入率の向上につながる。
我々の研究は、今後のeコマースレコメンデーションシステムにおいて、製品コンテンツとユーザ意図を解釈するLLMの可能性を強調します。
関連論文リスト
- Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - DashCLIP: Leveraging multimodal models for generating semantic embeddings for DoorDash [0.4288177321445912]
画像テキストデータに対するコントラスト学習を通じて,ユニモーダルエンコーダとマルチモーダルエンコーダを整列させることにより,製品およびユーザクエリのための共同トレーニングフレームワークを導入する。
提案手法では,クエリエンコーダをLLM計算した関連データセットでトレーニングし,エンゲージメント履歴への依存を解消する。
パーソナライズされた広告レコメンデーションでは、デプロイ後のクリックスルー率と変換レートが大きく上昇し、主要なビジネス指標への影響を確認します。
論文 参考訳(メタデータ) (2025-03-18T20:38:31Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.73461454584274]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - Fine-tuning Multimodal Large Language Models for Product Bundling [53.01642741096356]
Bundle-MLLMは,大規模言語モデル(LLM)をハイブリットアイテムトークン化アプローチにより微調整する新しいフレームワークである。
具体的には、テキスト、メディア、およびリレーショナルデータを統一トークン化に統合し、テキストトークンと非テキストトークンを区別するソフトな分離トークンを導入する。
1)バンドルパターンを学習し,2)製品バンドル固有のマルチモーダルセマンティック理解の強化を行う。
論文 参考訳(メタデータ) (2024-07-16T13:30:14Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph [19.201697767418597]
大規模言語モデルに基づく補完的知識強化推薦システム(LLM-KERec)を提案する。
アイテムとユーザ情報から統一された概念用語を抽出し、ユーザ意図の遷移をキャプチャし、新しいアイテムに適応する。
3つの業界データセットで実施された大規模な実験は、既存のアプローチと比較して、我々のモデルの大幅な性能向上を実証している。
論文 参考訳(メタデータ) (2024-02-21T12:22:01Z) - ItemSage: Learning Product Embeddings for Shopping Recommendations at
Pinterest [60.841761065439414]
Pinterestでは、ItemSageと呼ばれるプロダクトの埋め込みセットを構築して、すべてのショッピングユースケースに適切なレコメンデーションを提供しています。
このアプローチによって、エンゲージメントとコンバージョンメトリクスが大幅に改善され、インフラストラクチャとメンテナンスコストの両方が削減された。
論文 参考訳(メタデータ) (2022-05-24T02:28:58Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z) - Personalized Embedding-based e-Commerce Recommendations at eBay [3.1236273633321416]
電子商取引市場において,同じベクトル空間にアイテムやユーザを埋め込むことで,パーソナライズされたアイテムレコメンデーションを生成するアプローチを提案する。
データアブレーションは、生産システムの堅牢性を改善するために、オフラインモデルのトレーニングプロセスに組み込まれます。
論文 参考訳(メタデータ) (2021-02-11T17:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。