論文の概要: M2Rec: Multi-scale Mamba for Efficient Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2505.04445v1
- Date: Wed, 07 May 2025 14:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.104777
- Title: M2Rec: Multi-scale Mamba for Efficient Sequential Recommendation
- Title(参考訳): M2Rec: 効率的なシークエンシャルレコメンデーションのためのマルチスケールマンバ
- Authors: Qianru Zhang, Liang Qu, Honggang Wen, Dong Huang, Siu-Ming Yiu, Nguyen Quoc Viet Hung, Hongzhi Yin,
- Abstract要約: Modelは、Fourier分析、大規模言語モデル、適応ゲーティングとマルチスケールのMambaを統合した、新しいシーケンシャルなレコメンデーションフレームワークである。
実験では、モデルは最先端のパフォーマンスを実現し、既存のMambaベースのモデルよりもHit Rate@10を3.2%改善した。
- 参考スコア(独自算出の注目度): 35.508076394809784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation systems aim to predict users' next preferences based on their interaction histories, but existing approaches face critical limitations in efficiency and multi-scale pattern recognition. While Transformer-based methods struggle with quadratic computational complexity, recent Mamba-based models improve efficiency but fail to capture periodic user behaviors, leverage rich semantic information, or effectively fuse multimodal features. To address these challenges, we propose \model, a novel sequential recommendation framework that integrates multi-scale Mamba with Fourier analysis, Large Language Models (LLMs), and adaptive gating. First, we enhance Mamba with Fast Fourier Transform (FFT) to explicitly model periodic patterns in the frequency domain, separating meaningful trends from noise. Second, we incorporate LLM-based text embeddings to enrich sparse interaction data with semantic context from item descriptions. Finally, we introduce a learnable gate mechanism to dynamically balance temporal (Mamba), frequency (FFT), and semantic (LLM) features, ensuring harmonious multimodal fusion. Extensive experiments demonstrate that \model\ achieves state-of-the-art performance, improving Hit Rate@10 by 3.2\% over existing Mamba-based models while maintaining 20\% faster inference than Transformer baselines. Our results highlight the effectiveness of combining frequency analysis, semantic understanding, and adaptive fusion for sequential recommendation. Code and datasets are available at: https://anonymous.4open.science/r/M2Rec.
- Abstract(参考訳): 逐次リコメンデーションシステムは,インタラクション履歴に基づいてユーザの次の好みを予測することを目的としているが,既存のアプローチでは,効率性やマルチスケールパターン認識において重要な制限に直面している。
Transformerベースの手法は2次計算複雑性に苦しむが、最近のMambaベースのモデルは効率を向上するが、周期的なユーザの振る舞いを捉えたり、リッチなセマンティック情報を利用したり、マルチモーダルな特徴を効果的に融合することができない。
これらの課題に対処するため,我々は,Fourier解析,Large Language Models (LLMs) ,適応ゲーティングとマルチスケール・マンバを統合した新しいシーケンシャルレコメンデーションフレームワークである \model を提案する。
まず、Fast Fourier Transform (FFT) を用いて、周波数領域の周期パターンを明示的にモデル化し、ノイズから有意な傾向を分離する。
第2に, LLM ベースのテキスト埋め込みを組み込んで, 項目記述から意味的コンテキストに疎結合データを豊かにする。
最後に、時相(マンバ)、周波数(FFT)、意味(LLM)の特徴を動的にバランスさせ、調和したマルチモーダル融合を保証するための学習可能なゲート機構を導入する。
大規模な実験により、 \model\は最先端のパフォーマンスを実現し、既存のMambaベースモデルよりもHit Rate@10を3.2\%改善し、Transformerベースラインよりも20\%高速な推論を維持した。
本研究は,周波数解析,意味理解,適応融合を併用した逐次的勧告の有効性を強調した。
コードとデータセットは、https://anonymous.4open.science/r/M2Rec.comで入手できる。
関連論文リスト
- LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - MaTrRec: Uniting Mamba and Transformer for Sequential Recommendation [6.74321828540424]
ユーザ行動系列内の動的嗜好や依存関係を分析し,パーソナライズされたレコメンデーションを提供することを目的としている。
状態空間モデル(SSM)表現モデルであるMambaに着想を得た結果,Mambaの推奨効率は短い相互作用シーケンスで制限されることがわかった。
我々は,MambaとTransformerの強みを組み合わせた新しいモデルMaTrRecを提案する。
論文 参考訳(メタデータ) (2024-07-27T12:07:46Z) - EchoMamba4Rec: Harmonizing Bidirectional State Space Models with Spectral Filtering for Advanced Sequential Recommendation [0.0]
制御理論は、長期依存の管理に状態空間モデル(SSM)を使うことを強調している。
本研究では,EchoMamba4Recを紹介した。
EchoMambaは既存のモデルよりも優れており、より正確でパーソナライズされたレコメンデーションを提供する。
論文 参考訳(メタデータ) (2024-06-04T09:07:58Z) - Bi-Mamba+: Bidirectional Mamba for Time Series Forecasting [5.166854384000439]
長期時系列予測(LTSF)は、将来のトレンドとパターンに関するより長い洞察を提供する。
近年,Mamba という新しい状態空間モデル (SSM) が提案されている。
入力データに対する選択的機能とハードウェア対応並列計算アルゴリズムにより、Mambaは予測性能と計算効率のバランスをとる大きな可能性を示した。
論文 参考訳(メタデータ) (2024-04-24T09:45:48Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。