論文の概要: MALLOC: Benchmarking the Memory-aware Long Sequence Compression for Large Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.20234v1
- Date: Wed, 28 Jan 2026 04:11:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.765155
- Title: MALLOC: Benchmarking the Memory-aware Long Sequence Compression for Large Sequential Recommendation
- Title(参考訳): MALLOC:大規模なシーケンスレコメンデーションのためのメモリ対応ロングシーケンス圧縮のベンチマーク
- Authors: Qihang Yu, Kairui Fu, Zhaocheng Du, Yuxuan Si, Kaiyuan Li, Weihao Zhao, Zhicheng Zhang, Jieming Zhu, Quanyu Dai, Zhenhua Dong, Shengyu Zhang, Kun Kuang, Fei Wu,
- Abstract要約: MALLOCは、メモリを意識したロングシーケンス圧縮のベンチマークである。
最先端のレコメンデータに統合され、再現性と評価のプラットフォームを可能にする。
- 参考スコア(独自算出の注目度): 84.53415999381203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The scaling law, which indicates that model performance improves with increasing dataset and model capacity, has fueled a growing trend in expanding recommendation models in both industry and academia. However, the advent of large-scale recommenders also brings significantly higher computational costs, particularly under the long-sequence dependencies inherent in the user intent of recommendation systems. Current approaches often rely on pre-storing the intermediate states of the past behavior for each user, thereby reducing the quadratic re-computation cost for the following requests. Despite their effectiveness, these methods often treat memory merely as a medium for acceleration, without adequately considering the space overhead it introduces. This presents a critical challenge in real-world recommendation systems with billions of users, each of whom might initiate thousands of interactions and require massive memory for state storage. Fortunately, there have been several memory management strategies examined for compression in LLM, while most have not been evaluated on the recommendation task. To mitigate this gap, we introduce MALLOC, a comprehensive benchmark for memory-aware long sequence compression. MALLOC presents a comprehensive investigation and systematic classification of memory management techniques applicable to large sequential recommendations. These techniques are integrated into state-of-the-art recommenders, enabling a reproducible and accessible evaluation platform. Through extensive experiments across accuracy, efficiency, and complexity, we demonstrate the holistic reliability of MALLOC in advancing large-scale recommendation. Code is available at https://anonymous.4open.science/r/MALLOC.
- Abstract(参考訳): スケーリング法は、データセットとモデルのキャパシティの増加によってモデルパフォーマンスが向上することを示しているが、業界と学界の両方で推奨モデルを拡大する傾向が拡大している。
しかし、大規模リコメンデータの出現は、特にリコメンデーションシステムのユーザ意図に固有の長期依存の下で、計算コストを著しく高めている。
現在のアプローチでは、ユーザ毎の過去の動作の中間状態を事前保存することで、次の要求に対する二次的な再計算コストを削減していることが多い。
それらの効果にもかかわらず、これらの手法はメモリを単にアクセラレーションの媒体として扱うだけであり、それが導入する空間オーバーヘッドを適切に考慮しない。
これは、数十億のユーザがいる現実世界のレコメンデーションシステムにおいて重要な課題であり、それぞれが数千のインタラクションを開始し、ステートストレージに大量のメモリを必要とする可能性がある。
幸いなことに、LLMの圧縮のためにいくつかのメモリ管理戦略が検討されているが、ほとんどはレコメンデーションタスクで評価されていない。
このギャップを軽減するため、メモリ対応長シーケンス圧縮のための総合ベンチマークであるMALLOCを導入する。
MALLOCは、大規模なシーケンシャルレコメンデーションに適用可能な、総合的な研究と、メモリ管理手法の体系的な分類を提示する。
これらのテクニックは最先端のレコメンデータに統合され、再現可能でアクセス可能な評価プラットフォームを可能にする。
精度,効率,複雑性に関する広範な実験を通じて,大規模な推薦を進める上でのMALLOCの総合的信頼性を実証する。
コードはhttps://anonymous.4open.science/r/MALLOCで公開されている。
関連論文リスト
- MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - Large Memory Network for Recommendation [21.618829330517844]
Large Memory Network (LMN) は、ユーザ履歴の振る舞い情報を大規模メモリブロックに圧縮保存する新しいアイデアである。
LMNはDouyin E-Commerce Search (ECS)に完全にデプロイされており、毎日数百万のユーザにサービスを提供している。
論文 参考訳(メタデータ) (2025-02-08T13:08:11Z) - A Generic Network Compression Framework for Sequential Recommender
Systems [71.81962915192022]
シークエンシャルレコメンデーションシステム(SRS)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。
CpRecと呼ばれる圧縮されたシーケンシャルレコメンデーションフレームワークを提案する。
大規模なアブレーション研究により、提案したCpRecは実世界のSRSデータセットにおいて最大4$sim$8倍の圧縮速度を達成できることを示した。
論文 参考訳(メタデータ) (2020-04-21T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。