論文の概要: Budgeted Embedding Table For Recommender Systems
- arxiv url: http://arxiv.org/abs/2310.14884v6
- Date: Fri, 08 Aug 2025 14:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:57:58.669354
- Title: Budgeted Embedding Table For Recommender Systems
- Title(参考訳): Recommender システムのための予算組込みテーブル
- Authors: Yunke Qu, Tong Chen, Quoc Viet Hung Nguyen, Hongzhi Yin,
- Abstract要約: BET(Budgeted Embedding Table)は、メモリ予算を満たすように保証されたテーブルレベルのアクションを生成する新しい方法である。
BETは、メモリ予算の異なる3つの一般的な推奨モデルと組み合わせられている。
- 参考スコア(独自算出の注目度): 42.85856167915002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At the heart of contemporary recommender systems (RSs) are latent factor models that provide quality recommendation experience to users. These models use embedding vectors, which are typically of a uniform and fixed size, to represent users and items. As the number of users and items continues to grow, this design becomes inefficient and hard to scale. Recent lightweight embedding methods have enabled different users and items to have diverse embedding sizes, but are commonly subject to two major drawbacks. Firstly, they limit the embedding size search to optimizing a heuristic balancing the recommendation quality and the memory complexity, where the trade-off coefficient needs to be manually tuned for every memory budget requested. The implicitly enforced memory complexity term can even fail to cap the parameter usage, making the resultant embedding table fail to meet the memory budget strictly. Secondly, most solutions, especially reinforcement learning based ones derive and optimize the embedding size for each each user/item on an instance-by-instance basis, which impedes the search efficiency. In this paper, we propose Budgeted Embedding Table (BET), a novel method that generates table-level actions (i.e., embedding sizes for all users and items) that is guaranteed to meet pre-specified memory budgets. Furthermore, by leveraging a set-based action formulation and engaging set representation learning, we present an innovative action search strategy powered by an action fitness predictor that efficiently evaluates each table-level action. Experiments have shown state-of-the-art performance on two real-world datasets when BET is paired with three popular recommender models under different memory budgets.
- Abstract(参考訳): 現代のレコメンデーションシステム(RS)の中心は、ユーザーに品質レコメンデーション体験を提供する潜在因子モデルである。
これらのモデルは、通常、ユーザとアイテムを表現するために、均一で固定サイズの埋め込みベクトルを使用する。
ユーザやアイテムの数が増え続けるにつれて、この設計は非効率になり、スケールしにくくなります。
近年, 軽量な埋め込み方式により, 異なるユーザやアイテムが多様な埋め込みサイズを持つようになったが, 一般的には2つの大きな欠点がある。
まず、埋め込みサイズ探索を制限し、要求されるメモリ予算ごとにトレードオフ係数を手作業で調整する必要がある推奨品質とメモリ複雑性のバランスを最適化する。
暗黙的に強制されたメモリ複雑度項はパラメータの使用量を上限にすることもでき、結果として、埋め込みテーブルはメモリ予算を厳密に満たさない。
第二に、ほとんどのソリューション、特に強化学習に基づくソリューションは、各ユーザ/イテムに対してインスタンスごとの埋め込みサイズを最適化し、探索効率を損なう。
本稿では,BET(Budgeted Embedding Table)を提案する。BET(Budgeted Embedding Table)は,予め指定されたメモリ予算を満たすことを保証されたテーブルレベルのアクション(ユーザやアイテムの埋め込みサイズ)を生成する新しい手法である。
さらに、集合に基づく行動定式化と係合集合表現学習を活用して、各テーブルレベルの動作を効率的に評価するアクション適合度予測器を利用した革新的な行動探索戦略を提案する。
実験では、BETと3つの一般的な推奨モデルが異なるメモリ予算の下でペアリングされた場合、2つの実世界のデータセットで最先端のパフォーマンスが示されている。
関連論文リスト
- A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - Scalable Dynamic Embedding Size Search for Streaming Recommendation [54.28404337601801]
実世界のレコメンデーションシステムは、しばしばストリーミングレコメンデーションシナリオで機能する。
ユーザやアイテムの数は増加を続けており、かなりのストレージリソース消費につながっている。
SCALLと呼ばれるストリーミングレコメンデーション用のLightweight Embeddingsを学び、ユーザ/イテムの埋め込みサイズを適応的に調整できる。
論文 参考訳(メタデータ) (2024-07-22T06:37:24Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Dynamic Embedding Size Search with Minimum Regret for Streaming
Recommender System [39.78277554870799]
同一かつ静的な埋め込みサイズの設定は、推奨性能とメモリコストの面で準最適であることを示す。
非定常的な方法でユーザ側とアイテム側の埋め込みサイズ選択を最小化する手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:27:18Z) - Mem-Rec: Memory Efficient Recommendation System using Alternative
Representation [6.542635536704625]
MEM-RECは、テーブルを埋め込むための新しい代替表現手法である。
MEM-RECはレコメンデーション品質を維持するだけでなく、埋め込み遅延を改善することができる。
論文 参考訳(メタデータ) (2023-05-12T02:36:07Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Learning Effective and Efficient Embedding via an Adaptively-Masked
Twins-based Layer [15.403616481651383]
本稿では,標準埋め込み層の背後に適応型ツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツ
AMTLは、埋め込みベクトルごとに望ましくない次元をマスクするマスクベクトルを生成する。
マスクベクトルは次元の選択に柔軟性をもたらし、提案した層は訓練されていないDLRMや訓練されていないDLRMに簡単に追加できる。
論文 参考訳(メタデータ) (2021-08-24T11:50:49Z) - Robust Generalization and Safe Query-Specialization in Counterfactual
Learning to Rank [62.28965622396868]
本稿では,特徴量に基づく対実的学習手法であるgenSPECアルゴリズムについて紹介する。
以上の結果から,GENSPECは十分なクリックデータを持つクエリに対して,ほとんどあるいはノイズのないクエリに対してロバストな振る舞いを持ちながら,最適なパフォーマンスを実現することが示唆された。
論文 参考訳(メタデータ) (2021-02-11T13:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。