論文の概要: Learning Vector-Quantized Item Representation for Transferable
Sequential Recommenders
- arxiv url: http://arxiv.org/abs/2210.12316v1
- Date: Sat, 22 Oct 2022 00:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:27:22.525513
- Title: Learning Vector-Quantized Item Representation for Transferable
Sequential Recommenders
- Title(参考訳): 転送可能なシーケンスレコメンダのためのベクトル量子化項目表現の学習
- Authors: Yupeng Hou, Zhankui He, Julian McAuley, Wayne Xin Zhao
- Abstract要約: VQ-Recは、転送可能なシーケンシャルリコメンダのためのベクトル量子化アイテム表現を学ぶための新しいアプローチである。
半合成および混合ドメインのコード表現をハードな負として用い、拡張されたコントラスト事前学習手法を提案する。
- 参考スコア(独自算出の注目度): 33.406897794088515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the generality of natural language text has been leveraged to
develop transferable recommender systems. The basic idea is to employ
pre-trained language model (PLM) to encode item text into item representations.
Despite the promising transferability, the binding between item text and item
representations might be too tight, leading to potential problems such as
over-emphasizing text similarity and exaggerating domain gaps. To address this
issue, this paper proposes VQ-Rec, a novel approach to learning
Vector-Quantized item representations for transferable sequential Recommender.
The major novelty of our approach lies in the new item representation scheme:
it first maps item text into a vector of discrete indices (called item code),
and then employs these indices to lookup the code embedding table for deriving
item representations. Such a scheme can be denoted as "text -> code ->
representation". Based on this representation scheme, we further propose an
enhanced contrastive pre-training approach, using semi-synthetic and
mixed-domain code representations as hard negatives. Furthermore, we design a
new cross-domain fine-tuning method based on a differentiable permutation-based
network. Extensive experiments conducted on six public benchmarks demonstrate
the effectiveness of the proposed approach, in both cross-domain and
cross-platform settings.
- Abstract(参考訳): 近年,翻訳可能なレコメンダシステムの開発に自然言語テキストの汎用性が活用されている。
基本的な考え方は、アイテムテキストをアイテム表現にエンコードするために、事前訓練された言語モデル(PLM)を使用することである。
有望な転送性にもかかわらず、アイテムテキストとアイテム表現のバインディングは厳しすぎるため、テキストの類似性を過度に強調したり、ドメインギャップを誇張するといった潜在的な問題が発生する可能性がある。
本稿では,転送可能なシーケンシャルリコメンタのためのベクトル量子化アイテム表現の学習手法であるVQ-Recを提案する。
最初は、アイテムテキストを独立したインデックス(アイテムコードと呼ばれる)のベクトルにマッピングし、次にこれらのインデックスを使用して、アイテム表現を導出するためのコード埋め込みテーブルを検索する。
このようなスキームは "text -> code -> representation" と表すことができる。
この表現方式に基づき, 半合成および混合ドメイン符号表現をハード負として, 拡張されたコントラスト事前学習手法を提案する。
さらに,識別可能な置換型ネットワークに基づくクロスドメインファインチューニング手法を設計する。
6つの公開ベンチマークで実施された大規模な実験は、クロスドメインとクロスプラットフォームの両方で提案手法の有効性を示している。
関連論文リスト
- STORE: Streamlining Semantic Tokenization and Generative Recommendation with A Single LLM [59.08493154172207]
本稿では,意味的トークン化と生成的レコメンデーションプロセスを合理化する統合フレームワークを提案する。
我々は,意味的トークン化をテキスト・ツー・ケントタスクとして定式化し,生成的推薦をトークン・ツー・ケントタスクとして,トークン・ツー・ケント・コンストラクションタスクとテキスト・ツー・ケント補助タスクで補足する。
これらのタスクはすべて生成的な方法でフレーム化され、単一の大規模言語モデル(LLM)バックボーンを使用してトレーニングされる。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - Learning Partially Aligned Item Representation for Cross-Domain Sequential Recommendation [72.73379646418435]
クロスドメインシーケンシャルレコメンデーションは、ドメイン間でのユーザのシーケンシャルな好みを明らかにすることを目的としている。
ミスアライメントアイテム表現は、サブ最適シーケンシャルモデリングとユーザ表現アライメントにつながる可能性がある。
textbfCross- domain item representation textbfAlignment for textbfCross-textbfDomain textbfSequential textbfRecommendationを提案する。
論文 参考訳(メタデータ) (2024-05-21T03:25:32Z) - Binder: Hierarchical Concept Representation through Order Embedding of Binary Vectors [3.9271338080639753]
順序に基づく表現のための新しいアプローチであるBinderを提案する。
Binderは埋め込みにバイナリベクトルを使用するため、埋め込みベクトルは他の方法よりもはるかに小さなフットプリントでコンパクトである。
論文 参考訳(メタデータ) (2024-04-16T21:52:55Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - UniTRec: A Unified Text-to-Text Transformer and Joint Contrastive
Learning Framework for Text-based Recommendation [17.88375225459453]
先行研究により、事前学習言語モデル(PLM)は、テキストベースのレコメンデーションの性能を高めることが示されている。
ユーザ履歴の2レベルコンテキストをモデル化するために,ローカル・グローバル・アテンション・トランスフォーマー・エンコーダの統一化を提案する。
我々のフレームワークであるUniTRecは、テキストベースの推薦を共同で強化するために、識別的マッチングスコアと候補テキストの難易度という対照的な目的を統一する。
論文 参考訳(メタデータ) (2023-05-25T06:11:31Z) - RetroMAE-2: Duplex Masked Auto-Encoder For Pre-Training
Retrieval-Oriented Language Models [12.37229805276939]
本稿では,DupMAE(Duplex Masked Auto-Encoder)と呼ばれる新しい事前学習手法を提案する。
事前訓練されたモデルのすべてのコンテキスト化埋め込みを活用できる品質意味表現を改善するように設計されている。
論文 参考訳(メタデータ) (2023-05-04T05:37:22Z) - Towards Universal Sequence Representation Learning for Recommender
Systems [98.02154164251846]
我々はUniSRecという新しいユニバーサルシーケンス表現学習手法を提案する。
提案手法は、項目の関連記述テキストを用いて、異なる推薦シナリオ間で転送可能な表現を学習する。
我々のアプローチは、パラメータ効率のよい方法で、新しいレコメンデーションドメインやプラットフォームに効果的に移行できます。
論文 参考訳(メタデータ) (2022-06-13T07:21:56Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。