論文の概要: HMamba: Hyperbolic Mamba for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2505.09205v1
- Date: Wed, 14 May 2025 07:34:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.394425
- Title: HMamba: Hyperbolic Mamba for Sequential Recommendation
- Title(参考訳): HMamba: シークエンシャルレコメンデーションのためのハイパーボリックマンバ
- Authors: Qianru Zhang, Honggang Wen, Wei Yuan, Crystal Chen, Menglin Yang, Siu-Ming Yiu, Hongzhi Yin,
- Abstract要約: 双曲的マンバ(英: Hyperbolic Mamba)は、マンバの選択的状態空間機構と双曲幾何学の階層的表現力の効率を統一する新しいアーキテクチャである。
我々は,Hyperbolic Mambaが線形時間効率を維持しながら3-11%の改善を実現し,実世界の展開を可能にしたことを示す。
- 参考スコア(独自算出の注目度): 39.60869234694072
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sequential recommendation systems have become a cornerstone of personalized services, adept at modeling the temporal evolution of user preferences by capturing dynamic interaction sequences. Existing approaches predominantly rely on traditional models, including RNNs and Transformers. Despite their success in local pattern recognition, Transformer-based methods suffer from quadratic computational complexity and a tendency toward superficial attention patterns, limiting their ability to infer enduring preference hierarchies in sequential recommendation data. Recent advances in Mamba-based sequential models introduce linear-time efficiency but remain constrained by Euclidean geometry, failing to leverage the intrinsic hyperbolic structure of recommendation data. To bridge this gap, we propose Hyperbolic Mamba, a novel architecture that unifies the efficiency of Mamba's selective state space mechanism with hyperbolic geometry's hierarchical representational power. Our framework introduces (1) a hyperbolic selective state space that maintains curvature-aware sequence modeling and (2) stabilized Riemannian operations to enable scalable training. Experiments across four benchmarks demonstrate that Hyperbolic Mamba achieves 3-11% improvement while retaining Mamba's linear-time efficiency, enabling real-world deployment. This work establishes a new paradigm for efficient, hierarchy-aware sequential modeling.
- Abstract(参考訳): シークエンシャルレコメンデーションシステムは、動的インタラクションシーケンスをキャプチャすることで、ユーザの好みの時間的進化をモデル化し、パーソナライズされたサービスの基盤となっている。
既存のアプローチは主に、RNNやTransformerなど、従来のモデルに依存している。
局所的なパターン認識の成功にもかかわらず、トランスフォーマーベースの手法は2次計算の複雑さと表面的な注意パターンの傾向に悩まされ、逐次レコメンデーションデータにおいて永続的な選好階層を推測する能力を制限する。
マンバをベースとしたシーケンシャルモデルの最近の進歩は線形時間効率を導入しているが、ユークリッド幾何学によって制約され続けており、レコメンデーションデータの内在的な双曲構造を活用できない。
このギャップを埋めるために,双曲幾何学の階層的表現力によって,マンバの選択状態空間機構の効率を統一する新しいアーキテクチャであるHyperbolic Mambaを提案する。
本フレームワークでは,(1)曲率を考慮したシーケンスモデリングを維持した双曲型選択状態空間,(2)スケーラブルなトレーニングを実現するための安定化リーマン演算を導入する。
4つのベンチマークで実験したところ、Hyperbolic Mambaは3-11%の改善を達成し、Mambaの線形時間効率を保ち、現実世界のデプロイを可能にした。
この研究は、効率的な階層型シーケンシャルモデリングのための新しいパラダイムを確立する。
関連論文リスト
- Mamba-CL: Optimizing Selective State Space Model in Null Space for Continual Learning [54.19222454702032]
継続的学習は、AIモデルに時間とともに一連のタスクを学習する能力を持たせることを目的としている。
ステートスペースモデル(SSM)はコンピュータビジョンにおいて顕著な成功を収めた。
大規模マンバ基礎モデルのコアSSMを連続的に微調整するフレームワークであるMamba-CLを紹介する。
論文 参考訳(メタデータ) (2024-11-23T06:36:16Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - DiM-Gesture: Co-Speech Gesture Generation with Adaptive Layer Normalization Mamba-2 framework [2.187990941788468]
生音声のみから、高度にパーソナライズされた3Dフルボディジェスチャーを作成するために作られた生成モデル。
Modelは、Mambaベースのファジィ特徴抽出器と非自己回帰適応層正規化(AdaLN)Mamba-2拡散アーキテクチャを統合している。
論文 参考訳(メタデータ) (2024-08-01T08:22:47Z) - SHMamba: Structured Hyperbolic State Space Model for Audio-Visual Question Answering [5.016335384639901]
AVQA(Audio-Visual Question Answering)のマルチモーダル入力により,特徴抽出と融合処理がより困難になる。
我々は、双曲幾何学と状態空間モデルの利点を統合するために、構造化双曲状態空間モデル(SHMamba: Structured Hyperbolic State Space Model)を提案する。
提案手法は,現行のすべての主要な手法の優越性を実証し,実用的なアプリケーションシナリオに適した方法である。
論文 参考訳(メタデータ) (2024-06-14T08:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。