論文の概要: EncodeRec: An Embedding Backbone for Recommendation Systems
- arxiv url: http://arxiv.org/abs/2601.10837v1
- Date: Thu, 15 Jan 2026 20:15:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.284421
- Title: EncodeRec: An Embedding Backbone for Recommendation Systems
- Title(参考訳): EncodeRec:レコメンデーションシステムのための埋め込みバックボーン
- Authors: Guy Hadad, Neomi Rabaev, Bracha Shapira,
- Abstract要約: 本稿では,コンパクトで情報的な埋め込みを学習しながら,テキスト表現を推奨目的と整合させるアプローチであるEncodeRecを提案する。
コアレコメンデーションベンチマークの実験では、シーケンシャルレコメンデーションモデルとセマンティックIDトークン化のバックボーンとしての有効性が示されている。
これらの結果は,汎用言語モデルと実用的なレコメンデーションシステムとのギャップを埋める上で,埋め込み適応が重要な役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 4.7014546279849805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent recommender systems increasingly leverage embeddings from large pre-trained language models (PLMs). However, such embeddings exhibit two key limitations: (1) PLMs are not explicitly optimized to produce structured and discriminative embedding spaces, and (2) their representations remain overly generic, often failing to capture the domain-specific semantics crucial for recommendation tasks. We present EncodeRec, an approach designed to align textual representations with recommendation objectives while learning compact, informative embeddings directly from item descriptions. EncodeRec keeps the language model parameters frozen during recommender system training, making it computationally efficient without sacrificing semantic fidelity. Experiments across core recommendation benchmarks demonstrate its effectiveness both as a backbone for sequential recommendation models and for semantic ID tokenization, showing substantial gains over PLM-based and embedding model baselines. These results underscore the pivotal role of embedding adaptation in bridging the gap between general-purpose language models and practical recommender systems.
- Abstract(参考訳): 最近のレコメンデータシステムは、大規模事前学習言語モデル(PLM)からの埋め込みをますます活用している。
しかしながら,1) PLMは構造的かつ識別的な埋め込み空間を生成するために明示的に最適化されておらず,(2) 表現が過度に汎用的であり,しばしばレコメンデーションタスクに不可欠なドメイン固有のセマンティクスを捉えることに失敗する。
本稿では,項目記述から直接コンパクトな情報埋め込みを学習しながら,テキスト表現を推奨目的と整合させるアプローチであるEncodeRecを提案する。
EncodeRecは、レコメンデータシステムのトレーニング中にフリーズされた言語モデルパラメータを保持しており、セマンティックな忠実さを犠牲にすることなく、計算的に効率的である。
コアレコメンデーションベンチマークによる実験では、シーケンシャルレコメンデーションモデルとセマンティックIDトークン化のバックボーンとしての有効性が示され、PLMベースのモデルベースラインや埋め込みモデルベースラインよりも大幅に向上した。
これらの結果は,汎用言語モデルと実用的なレコメンデーションシステムとのギャップを埋める上で,埋め込み適応が重要な役割を担っていることを示す。
関連論文リスト
- RecBase: Generative Foundation Model Pretraining for Zero-Shot Recommendation [78.01030342481246]
RecBaseは、レコメンデーション指向の目的によって事前訓練されたドメインに依存しない基礎モデルである。
アイテムを階層的な概念識別子にエンコードする統一されたアイテムトークンを導入します。
我々のモデルは、ゼロショットおよびクロスドメインレコメンデーションタスクにおいて、LLMのベースラインの最大7Bパラメータのパフォーマンスを一致または超過します。
論文 参考訳(メタデータ) (2025-09-03T08:33:43Z) - Towards Comprehensible Recommendation with Large Language Model Fine-tuning [41.218487308635126]
本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-11T03:55:31Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - RALLRec: Improving Retrieval Augmented Large Language Model Recommendation with Representation Learning [24.28601381739682]
大規模言語モデル (LLM) は、ユーザの振る舞いを理解するためのレコメンデーションシステムに統合されている。
既存のRAGメソッドは主にテキストのセマンティクスに依存しており、しばしば最も関連性の高い項目を組み込むことができない。
検索強化大言語モデル推薦(RALLRec)のための表現学習を提案する。
論文 参考訳(メタデータ) (2025-02-10T02:15:12Z) - Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。