論文の概要: Scalable Sequential Recommendation under Latency and Memory Constraints
- arxiv url: http://arxiv.org/abs/2601.08360v1
- Date: Tue, 13 Jan 2026 09:16:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.13193
- Title: Scalable Sequential Recommendation under Latency and Memory Constraints
- Title(参考訳): レイテンシとメモリ制約下におけるスケーラブルなシーケンスレコメンデーション
- Authors: Adithya Parthasarathy, Aswathnarayan Muthukrishnan Kirubakaran, Vinoth Punniyamoorthy, Nachiappan Chockalingam, Lokesh Butra, Kabilan Kannan, Abhirup Mazumder, Sumit Saha,
- Abstract要約: 逐次リコメンデータシステムは、厳格なメモリとレイテンシの制約の下で動作しながら、長距離ユーザの振る舞いをモデル化する必要がある。
トランスフォーマーベースのアプローチは、高い精度を達成するが、二次的な注意の複雑さに悩まされる。
本稿では,属性認識の埋め込みのためのホログラフィック還元表現を組み合わせた,軽量なシーケンシャルレコメンデーションアーキテクチャであるHoloMambaRecを提案する。
- 参考スコア(独自算出の注目度): 0.14053129774629072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommender systems must model long-range user behavior while operating under strict memory and latency constraints. Transformer-based approaches achieve strong accuracy but suffer from quadratic attention complexity, forcing aggressive truncation of user histories and limiting their practicality for long-horizon modeling. This paper presents HoloMambaRec, a lightweight sequential recommendation architecture that combines holographic reduced representations for attribute-aware embedding with a selective state space encoder for linear-time sequence processing. Item and attribute information are bound using circular convolution, preserving embedding dimensionality while encoding structured metadata. A shallow selective state space backbone, inspired by recent Mamba-style models, enables efficient training and constant-time recurrent inference. Experiments on Amazon Beauty and MovieLens-1M datasets demonstrate that HoloMambaRec consistently outperforms SASRec and achieves competitive performance with GRU4Rec under a constrained 10-epoch training budget, while maintaining substantially lower memory complexity. The design further incorporates forward-compatible mechanisms for temporal bundling and inference-time compression, positioning HoloMambaRec as a practical and extensible alternative for scalable, metadata-aware sequential recommendation.
- Abstract(参考訳): 逐次リコメンデータシステムは、厳格なメモリとレイテンシの制約の下で動作しながら、長距離ユーザの振る舞いをモデル化する必要がある。
トランスフォーマーに基づくアプローチは、強い精度を達成するが、2次的注意の複雑さに悩まされ、ユーザ履歴の積極的な切り裂き、長期モデリングにおける実用性を制限する。
本稿では,属性認識の埋め込みにおけるホログラフィック削減表現と線形時間列処理のための選択状態空間エンコーダを組み合わせた,軽量な逐次レコメンデーションアーキテクチャであるHoloMambaRecを提案する。
アイテムと属性情報は、構造化メタデータをエンコードしながら埋め込み次元を保存する円形の畳み込みを用いてバインドされる。
最近のMambaスタイルのモデルにインスパイアされた浅い選択状態空間のバックボーンは、効率的なトレーニングと一定時間繰り返しの推論を可能にする。
Amazon BeautyとMovieLens-1Mデータセットの実験では、HoloMambaRecはSASRecを一貫して上回り、GRU4Recと競合するパフォーマンスを10エポシックなトレーニング予算下で達成し、メモリの複雑さを大幅に低減した。
この設計には、時間的バンドルと推論時圧縮のための前方互換のメカニズムが組み込まれており、HoloMambaRecをスケーラブルでメタデータ対応のシーケンシャルレコメンデーションの実用的で拡張可能な代替品として位置づけている。
関連論文リスト
- Scaling LLM Speculative Decoding: Non-Autoregressive Forecasting in Large-Batch Scenarios [76.85739138203014]
本稿では,一方向および注目メカニズムを加速する新しいアーキテクチャであるSpecFormerを紹介する。
また,SpecFormerはトレーニング要求の低減と計算コストの削減を実現している。
論文 参考訳(メタデータ) (2025-11-25T14:20:08Z) - Lethe: Layer- and Time-Adaptive KV Cache Pruning for Reasoning-Intensive LLM Serving [11.750209684686707]
大きな言語モデル(LLM)による生成的推論は、しばしば長い復号シーケンスを含む。
本稿では,動的KVキャッシュ管理フレームワークLetheを提案する。
Letheは様々なモデルやタスク間で効率と生成品質のバランスを良好に保ち、スループットを最大2.56倍に向上させる。
論文 参考訳(メタデータ) (2025-11-08T14:52:43Z) - HMamba: Hyperbolic Mamba for Sequential Recommendation [39.60869234694072]
双曲的マンバ(英: Hyperbolic Mamba)は、マンバの選択的状態空間機構と双曲幾何学の階層的表現力の効率を統一する新しいアーキテクチャである。
我々は,Hyperbolic Mambaが線形時間効率を維持しながら3-11%の改善を実現し,実世界の展開を可能にしたことを示す。
論文 参考訳(メタデータ) (2025-05-14T07:34:36Z) - UmambaTSF: A U-shaped Multi-Scale Long-Term Time Series Forecasting Method Using Mamba [7.594115034632109]
本稿では,新しい時系列予測フレームワークであるUmambaTSFを提案する。
U字型エンコーダ・デコーダ多層パーセプトロン(MLP)のマルチスケール特徴抽出機能とMambaのロングシーケンス表現を統合する。
UmambaTSFは、広く使用されているベンチマークデータセットで最先端のパフォーマンスと優れた汎用性を達成する。
論文 参考訳(メタデータ) (2024-10-15T04:56:43Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - LongVQ: Long Sequence Modeling with Vector Quantization on Structured Memory [63.41820940103348]
自己保持機構の計算コストは、長いシーケンスの実用性を制限する。
我々はLongVQと呼ばれる新しい手法を提案し、長さ固定されたコードブックとしてグローバルな抽象化を圧縮する。
LongVQは動的グローバルパターンとローカルパターンを効果的に維持し、長距離依存性の問題の欠如を補うのに役立つ。
論文 参考訳(メタデータ) (2024-04-17T08:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。