論文の概要: DenseRec: Revisiting Dense Content Embeddings for Sequential Transformer-based Recommendation
- arxiv url: http://arxiv.org/abs/2508.18442v1
- Date: Mon, 25 Aug 2025 19:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.571997
- Title: DenseRec: Revisiting Dense Content Embeddings for Sequential Transformer-based Recommendation
- Title(参考訳): DenseRec:シークエンシャルトランスフォーマーに基づくレコメンデーションのためのDenseコンテンツ埋め込みの再検討
- Authors: Jan Malte Lichtenberg, Antonio De Candia, Matteo Ruffini,
- Abstract要約: トランスフォーマーベースのシーケンシャルレコメンダは通常、学習アイテムIDの埋め込みにのみ依存する。
DenseRecはシンプルだが効果的な方法であり、デュアルパス埋め込みアプローチを導入している。
3つの実世界のデータセットの実験では、DenseRecはIDのみのSASRecベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.24999074238880484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based sequential recommenders, such as SASRec or BERT4Rec, typically rely solely on learned item ID embeddings, making them vulnerable to the item cold-start problem, particularly in environments with dynamic item catalogs. While dense content embeddings from pre-trained models offer potential solutions, direct integration into transformer-based recommenders has consistently underperformed compared to ID-only approaches. We revisit this integration challenge and propose DenseRec, a simple yet effective method that introduces a dual-path embedding approach. DenseRec learns a linear projection from the dense embedding space into the ID embedding space during training, enabling seamless generalization to previously unseen items without requiring specialized embedding models or complex infrastructure. In experiments on three real-world datasets, we find DenseRec to consistently outperform an ID-only SASRec baseline, even without additional hyperparameter tuning and while using compact embedding models. Our analysis suggests improvements primarily arise from better sequence representations in the presence of unseen items, positioning DenseRec as a practical and robust solution for cold-start sequential recommendation.
- Abstract(参考訳): SASRecやBERT4Recのようなトランスフォーマーベースのシーケンシャルレコメンデータは、一般的に学習アイテムIDの埋め込みのみに依存しており、特に動的アイテムカタログを持つ環境では、アイテムコールドスタート問題に弱い。
事前訓練されたモデルからの密なコンテンツ埋め込みは潜在的な解決策を提供するが、トランスフォーマーベースのレコメンデータへの直接統合は、IDのみのアプローチに比べて一貫してパフォーマンスが低下している。
我々はこの統合課題を再考し、デュアルパス埋め込みアプローチを導入するシンプルで効果的な方法であるDenseRecを提案する。
DenseRecは、トレーニング中に密な埋め込み空間からID埋め込み空間への線形射影を学習し、特別な埋め込みモデルや複雑なインフラを必要とせずに、以前は目にしなかったアイテムをシームレスに一般化する。
実世界の3つのデータセットの実験では、DenseRecは、追加のハイパーパラメータチューニングや、コンパクトな埋め込みモデルを使用しながら、IDのみのSASRecベースラインを一貫して上回ります。
DenseRecはコールドスタートシーケンシャルレコメンデーションのための実用的で堅牢なソリューションとして位置づけられている。
関連論文リスト
- Closing the Performance Gap in Generative Recommenders with Collaborative Tokenization and Efficient Modeling [10.757287948514604]
本稿では,協調情報を学習項目表現に直接統合するコントラストトークン化手法を提案する。
また、アイテムデコーディングからタイムラインモデリングを分離する軽量な音声インスパイアされた生成モデルであるMARIUSを提案する。
論文 参考訳(メタデータ) (2025-08-12T17:06:55Z) - eSASRec: Enhancing Transformer-based Recommendations in a Modular Fashion [45.793127165612745]
SASRecやBERT4Recのようなトランスフォーマーベースのモデルは、シーケンシャルレコメンデーションの一般的なベースラインとなっている。
我々は、SASRecのトレーニング目標、LiGRトランスフォーマー層、Sampred Softmax Lossを使用する非常に強力なモデルを特定する。
一般的な学術ベンチマークでは、最新の最先端モデルと比較して、eSASRecは23%有効であることが示されている。
論文 参考訳(メタデータ) (2025-08-08T16:49:03Z) - Pre-training Generative Recommender with Multi-Identifier Item Tokenization [78.87007819266957]
本稿では, MTGRecを用いて, 生成Recommender事前学習のためのトークンシーケンスデータを拡張する手法を提案する。
このアプローチには、マルチアイデンティティーアイテムトークン化とカリキュラムレコメンデータ事前トレーニングという、2つの重要なイノベーションがあります。
3つの公開ベンチマークデータセットに対する大規模な実験は、MTGRecが従来の推奨基準と生成推奨基準の両方を大きく上回っていることを示している。
論文 参考訳(メタデータ) (2025-04-06T08:03:03Z) - Unifying Generative and Dense Retrieval for Sequential Recommendation [37.402860622707244]
逐次密度検索と生成検索の強みを組み合わせたハイブリッドモデルであるLIGERを提案する。
LIGERは、シーケンシャルな高密度検索を生成検索に統合し、性能差を緩和し、コールドスタートアイテムレコメンデーションを強化する。
このハイブリッドアプローチは、これらのアプローチ間のトレードオフに関する洞察を与え、小規模ベンチマークにおけるレコメンデーションシステムの効率と効率性の向上を示す。
論文 参考訳(メタデータ) (2024-11-27T23:36:59Z) - DimeRec: A Unified Framework for Enhanced Sequential Recommendation via Generative Diffusion Models [39.49215596285211]
シークエンシャルレコメンデーション(SR:Sequential Recommendation)は、非定常的な歴史的相互作用に基づいてユーザの好みに合わせてレコメンデーションを調整することによって、レコメンデーションシステムにおいて重要な役割を担っている。
誘導抽出モジュール(GEM)と生成拡散凝集モジュール(DAM)を組み合わせたDimeRecという新しいフレームワークを提案する。
我々の数値実験により、DimeRecは3つの公開データセットで確立されたベースライン法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-08-22T06:42:09Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。