論文の概要: M2TRec: Metadata-aware Multi-task Transformer for Large-scale and
Cold-start free Session-based Recommendations
- arxiv url: http://arxiv.org/abs/2209.11824v1
- Date: Fri, 23 Sep 2022 19:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:14:07.606648
- Title: M2TRec: Metadata-aware Multi-task Transformer for Large-scale and
Cold-start free Session-based Recommendations
- Title(参考訳): M2TRec:大規模・コールドスタートフリーセッションベース勧告のためのメタデータ対応マルチタスクトランス
- Authors: Walid Shalaby, Sejoon Oh, Amir Afsharinejad, Srijan Kumar, Xiquan Cui
- Abstract要約: セッションベース推薦システム(SBRS)は従来の手法よりも優れた性能を示した。
セッションベースレコメンデーションのためのメタデータ対応マルチタスクトランスフォーマモデルであるM2TRecを提案する。
- 参考スコア(独自算出の注目度): 9.327321259021236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommender systems (SBRSs) have shown superior performance
over conventional methods. However, they show limited scalability on
large-scale industrial datasets since most models learn one embedding per item.
This leads to a large memory requirement (of storing one vector per item) and
poor performance on sparse sessions with cold-start or unpopular items. Using
one public and one large industrial dataset, we experimentally show that
state-of-the-art SBRSs have low performance on sparse sessions with sparse
items. We propose M2TRec, a Metadata-aware Multi-task Transformer model for
session-based recommendations. Our proposed method learns a transformation
function from item metadata to embeddings, and is thus, item-ID free (i.e.,
does not need to learn one embedding per item). It integrates item metadata to
learn shared representations of diverse item attributes. During inference, new
or unpopular items will be assigned identical representations for the
attributes they share with items previously observed during training, and thus
will have similar representations with those items, enabling recommendations of
even cold-start and sparse items. Additionally, M2TRec is trained in a
multi-task setting to predict the next item in the session along with its
primary category and subcategories. Our multi-task strategy makes the model
converge faster and significantly improves the overall performance.
Experimental results show significant performance gains using our proposed
approach on sparse items on the two datasets.
- Abstract(参考訳): セッションベース推薦システム(SBRS)は従来の手法よりも優れた性能を示した。
しかし、ほとんどのモデルはアイテム毎の埋め込みを学習するため、大規模産業データセットではスケーラビリティが制限されている。
これにより、(アイテム毎に1つのベクトルを格納する)大きなメモリ要件と、コールドスタートや不人気なアイテムによるスパースセッションのパフォーマンスが低下する。
1つのパブリックデータセットと1つの大規模産業データセットを用いて、スパースアイテムを用いたスパースセッションにおける最先端SBRSの性能が低いことを示す。
セッションベースレコメンデーションのためのメタデータ対応マルチタスクトランスフォーマモデルであるM2TRecを提案する。
提案手法は,アイテムメタデータから埋め込みへの変換関数を学習し,アイテムIDをフリーにする(つまり,アイテム毎の埋め込みを学習する必要がない)。
アイテムメタデータを統合して、さまざまなアイテム属性の共有表現を学習する。
推論の間、新規または不人気なアイテムは、トレーニング中に観測されたアイテムと共有する属性の同一表現に割り当てられるので、これらのアイテムと類似の表現を持ち、コールドスタートやスパースアイテムさえも推奨できる。
さらに、M2TRecはマルチタスク設定でトレーニングされ、セッションの次の項目と主要なカテゴリとサブカテゴリを予測する。
私たちのマルチタスク戦略はモデルをより早く収束させ、全体的なパフォーマンスを大幅に改善します。
実験の結果,2つのデータセットのスパース項目に対する提案手法による性能向上が得られた。
関連論文リスト
- Train Once, Deploy Anywhere: Matryoshka Representation Learning for Multimodal Recommendation [27.243116376164906]
マルチモーダルレコメンデーションのための大規模Matryoshka表現学習(fMRLRec)という軽量フレームワークを導入する。
当社のfMRLRecは,複数次元にわたる効率的なレコメンデーションのための情報表現を学習し,各項目の特徴を異なる粒度で捉えている。
複数のベンチマークデータセットに対するfMRLRecの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-09-25T05:12:07Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - Multi-task Item-attribute Graph Pre-training for Strict Cold-start Item
Recommendation [71.5871100348448]
ColdGPTは、アイテム内容からきめ細かい属性を抽出することにより、アイテム属性相関をアイテム属性グラフにモデル化する。
ColdGPTは、さまざまな利用可能なデータソース、すなわちアイテムの内容、過去の購入シーケンス、既存のアイテムのレビューテキストから、知識をアイテム属性グラフに転送する。
大規模な実験により、ColdGPTは既存のSCSレコメンデーターを大きなマージンで一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-06-26T07:04:47Z) - Language-aware Multiple Datasets Detection Pretraining for DETRs [4.939595148195813]
本稿では,METR と呼ばれる DETR 型検出器の事前学習に複数のデータセットを利用するためのフレームワークを提案する。
事前訓練された言語モデルを導入することにより、オブジェクト検出の典型的なマルチクラス化をバイナリ分類に変換する。
マルチタスク・ジョイントトレーニングとプレトレイン・ファネチューン・パラダイムのいずれにおいても,METRは異常な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-04-07T10:34:04Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Sequential Modeling with Multiple Attributes for Watchlist
Recommendation in E-Commerce [67.6615871959902]
電子商取引におけるウォッチリスト機能について検討し、新しいウォッチリスト推薦タスクを導入する。
私たちのゴールは、ユーザーが次にクリックするアイテムを予測することで、ユーザーが次に注意を払うべきウォッチリスト項目を優先順位付けすることです。
提案するレコメンデーションモデルであるTrans2DはTransformerアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2021-10-18T10:02:15Z) - Incorporating User Micro-behaviors and Item Knowledge into Multi-task
Learning for Session-based Recommendation [18.516121495514007]
セッションベースのレコメンデーション(SR)は、与えられたセッションに基づいて次に対話されたアイテムを予測することを目的としている。
ほとんどの既存のSRモデルは、あるユーザが対話するセッションにおける連続したアイテムの活用にのみ焦点をあてている。
セッションベースレコメンデーションのためのマルチタスク学習にユーザマイクロビヘイビアとアイテム知識を組み込んだ新しいSRモデルMKM-SRを提案する。
論文 参考訳(メタデータ) (2020-06-12T03:06:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。