論文の概要: GUIM -- General User and Item Embedding with Mixture of Representation
in E-commerce
- arxiv url: http://arxiv.org/abs/2207.00750v1
- Date: Sat, 2 Jul 2022 06:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 10:17:41.239733
- Title: GUIM -- General User and Item Embedding with Mixture of Representation
in E-commerce
- Title(参考訳): GUIM --Eコマースにおける表現の混合による一般ユーザとアイテム埋め込み
- Authors: Chao Yang, Ru He, Fangquan Lin, Suoyuan Song, Jingqiao Zhang, Cheng
Yang
- Abstract要約: 私たちのゴールは、Alibabaのビジネス全体で、各ユーザと各製品アイテムに対して、汎用的な表現(埋め込み)を構築することです。
自然言語処理(NLP)領域におけるBERTモデルに着想を得て,GUIM(General User Item embedding with Mixture of representation)モデルを提案する。
表現の混合(MoR)を新しい表現形式として利用し、各ユーザの多様な興味をモデル化する。
- 参考スコア(独自算出の注目度): 13.142842265419262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our goal is to build general representation (embedding) for each user and
each product item across Alibaba's businesses, including Taobao and Tmall which
are among the world's biggest e-commerce websites. The representation of users
and items has been playing a critical role in various downstream applications,
including recommendation system, search, marketing, demand forecasting and so
on. Inspired from the BERT model in natural language processing (NLP) domain,
we propose a GUIM (General User Item embedding with Mixture of representation)
model to achieve the goal with massive, structured, multi-modal data including
the interactions among hundreds of millions of users and items. We utilize
mixture of representation (MoR) as a novel representation form to model the
diverse interests of each user. In addition, we use the InfoNCE from
contrastive learning to avoid intractable computational costs due to the
numerous size of item (token) vocabulary. Finally, we propose a set of
representative downstream tasks to serve as a standard benchmark to evaluate
the quality of the learned user and/or item embeddings, analogous to the GLUE
benchmark in NLP domain. Our experimental results in these downstream tasks
clearly show the comparative value of embeddings learned from our GUIM model.
- Abstract(参考訳): 当社の目標は、世界最大級のeコマースウェブサイトであるtaobaoやtmallを含むalibabaのビジネス全体で、各ユーザと各プロダクトの汎用表現(埋め込み)を構築することです。
ユーザやアイテムの表現は,レコメンデーションシステム,検索,マーケティング,需要予測など,さまざまなダウンストリームアプリケーションにおいて重要な役割を担っている。
自然言語処理(nlp)ドメインのbertモデルから着想を得て,数億のユーザとアイテム間のインタラクションを含む大規模で構造化されたマルチモーダルデータで目標を達成するためのguim(general user item embedded with mixed of representation)モデルを提案する。
表現の混合(MoR)を新しい表現形式として利用し、各ユーザの多様な興味をモデル化する。
さらに,アイテム(トークン)語彙の多さによる難解な計算コストを回避するために,コントラスト学習からInfoNCEを利用する。
最後に,NLPドメインのGLUEベンチマークに類似した,学習したユーザおよび/またはアイテムの埋め込みの品質を評価するための標準ベンチマークとして機能する一連の下流タスクを提案する。
このような下流タスクにおける実験結果から,GUIMモデルから得られた埋め込みの比較値が明らかとなった。
関連論文リスト
- Adaptive Learning on User Segmentation: Universal to Specific Representation via Bipartite Neural Interaction [15.302921887305283]
本稿では,情報ボトルネックを通じて汎用ユーザ表現を学習する新しい学習フレームワークを提案する。
次に、ニューラルネットワークを通じてセグメンテーション特化あるいはタスク特化表現をマージし、学習する。
提案手法は2つのオープンソースベンチマーク、2つのオフラインビジネスデータセットで評価され、ユーザのCVRを予測するために2つのオンラインマーケティングアプリケーションにデプロイされる。
論文 参考訳(メタデータ) (2024-09-23T12:02:23Z) - EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations [38.44534579040017]
ユーザと候補項目のオフライン事前計算を可能にするフレームワークであるEmbSumを紹介する。
このモデルがユーザ興味の要約を生成する能力は貴重な副産物であり、パーソナライズされたコンテンツレコメンデーションに有用である。
論文 参考訳(メタデータ) (2024-05-19T04:31:54Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Scaling User Modeling: Large-scale Online User Representations for Ads Personalization in Meta [25.100342052990793]
Scaling User Modeling (SUM)はMetaの広告ランキングシステムに広くデプロイされているフレームワークである。
これまでSUMはMetaの数百の広告ランキングモデルでローンチされ、毎日数十億のユーザーリクエストを処理する。
論文 参考訳(メタデータ) (2023-11-16T03:47:48Z) - Pre-trained Neural Recommenders: A Transferable Zero-Shot Framework for
Recommendation Systems [5.597511654202054]
両部間相互作用グラフからノードとエッジのユニバーサル(ユーザやアイテムの補助情報なしでゼロショット適応をサポートする)表現を学習する方法を示す。
論文 参考訳(メタデータ) (2023-09-03T14:18:31Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - ItemSage: Learning Product Embeddings for Shopping Recommendations at
Pinterest [60.841761065439414]
Pinterestでは、ItemSageと呼ばれるプロダクトの埋め込みセットを構築して、すべてのショッピングユースケースに適切なレコメンデーションを提供しています。
このアプローチによって、エンゲージメントとコンバージョンメトリクスが大幅に改善され、インフラストラクチャとメンテナンスコストの両方が削減された。
論文 参考訳(メタデータ) (2022-05-24T02:28:58Z) - Pre-training Graph Transformer with Multimodal Side Information for
Recommendation [82.4194024706817]
本稿では,項目側情報とその関連性を考慮した事前学習戦略を提案する。
我々はMCNSamplingという新しいサンプリングアルゴリズムを開発し、各項目のコンテキスト近傍を選択する。
The proposed Pre-trained Multimodal Graph Transformer (PMGT) learns item representations with two objectives: 1) graph structure reconstruction, 2) masked node feature reconstruction。
論文 参考訳(メタデータ) (2020-10-23T10:30:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。