論文の概要: HiSAC: Hierarchical Sparse Activation Compression for Ultra-long Sequence Modeling in Recommenders
- arxiv url: http://arxiv.org/abs/2602.21009v1
- Date: Tue, 24 Feb 2026 15:28:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.813966
- Title: HiSAC: Hierarchical Sparse Activation Compression for Ultra-long Sequence Modeling in Recommenders
- Title(参考訳): HiSAC:超長期シーケンスモデリングのための階層的スパースアクティベーション圧縮
- Authors: Kun Yuan, Junyu Bi, Daixuan Cheng, Changfa Wu, Shuwen Xiao, Binbin Cao, Jian Wu, Yuning Jiang,
- Abstract要約: パーソナライズされたシーケンスモデリングのための効率的なフレームワークであるHiSACを提案する。
HiSACは対話を多レベルセマンティックIDにエンコードし、グローバルな階層的なコードブックを構築する。
階層的な投票機構は、パーソナライズされた利害関係者をきめ細かい選好センタとして活性化する。
ソフトルーティング・アテンション(Soft-Routing Attention)は、意味空間における歴史的信号を集約し、量子化誤差を最小限に抑えるために類似性によって重み付けする。
- 参考スコア(独自算出の注目度): 13.73393292649997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern recommender systems leverage ultra-long user behavior sequences to capture dynamic preferences, but end-to-end modeling is infeasible in production due to latency and memory constraints. While summarizing history via interest centers offers a practical alternative, existing methods struggle to (1) identify user-specific centers at appropriate granularity and (2) accurately assign behaviors, leading to quantization errors and loss of long-tail preferences. To alleviate these issues, we propose Hierarchical Sparse Activation Compression (HiSAC), an efficient framework for personalized sequence modeling. HiSAC encodes interactions into multi-level semantic IDs and constructs a global hierarchical codebook. A hierarchical voting mechanism sparsely activates personalized interest-agents as fine-grained preference centers. Guided by these agents, Soft-Routing Attention aggregates historical signals in semantic space, weighting by similarity to minimize quantization error and retain long-tail behaviors. Deployed on Taobao's "Guess What You Like" homepage, HiSAC achieves significant compression and cost reduction, with online A/B tests showing a consistent 1.65% CTR uplift -- demonstrating its scalability and real-world effectiveness.
- Abstract(参考訳): 現代のレコメンデータシステムは、動的嗜好を捉えるために超長期のユーザ動作シーケンスを利用するが、レイテンシやメモリ制約のため、本番環境ではエンドツーエンドのモデリングが不可能である。
従来の手法では,(1)適切な粒度でユーザ固有のセンターを識別し,(2)正確に振舞いを割り当てることが困難であり,量子化エラーや長期的嗜好の喪失につながる。
これらの問題を緩和するために、パーソナライズされたシーケンスモデリングのための効率的なフレームワークである階層スパースアクティベーション圧縮(HiSAC)を提案する。
HiSACは対話を多レベルセマンティックIDにエンコードし、グローバルな階層的なコードブックを構築する。
階層的な投票機構は、パーソナライズされた利害関係者をきめ細かい選好センタとして活性化する。
これらのエージェントによって導かれ、Soft-Routing Attentionは意味空間の歴史的信号を集約し、量子化誤差を最小限に抑え、長い尾の振舞いを保持するために類似性によって重み付けする。
Taobao氏のホームページ“Guess What You Like”にデプロイされたHiSACは、大幅な圧縮とコスト削減を実現している。オンラインA/Bテストでは、一貫した1.65%のCTRアップリフトが示されており、スケーラビリティと実世界の有効性を示している。
関連論文リスト
- Query as Anchor: Scenario-Adaptive User Representation via Large Language Model [28.30329175937291]
静的エンコーディングから動的クエリ認識合成へユーザモデリングをシフトするフレームワークであるQuery-as-Anchorを提案する。
まず,産業規模の事前学習データセットであるUserUを構築し,行動系列とユーザ理解のセマンティクスを整合させる。
クラスタベースのSoft Prompt Tuningを導入し、識別潜在構造を強制する。
デプロイメントでは、シーケンスターミニでのクエリのアンカーにより、無視可能なインクリメンタルレイテンシでKVキャッシュを加速する推論が可能になる。
論文 参考訳(メタデータ) (2026-02-16T06:09:31Z) - Rethinking Multi-Condition DiTs: Eliminating Redundant Attention via Position-Alignment and Keyword-Scoping [61.459927600301654]
マルチコンディション制御は従来のコンカデント・アンド・アットエンドの戦略によってボトルネックとなる。
分析の結果,これらの相互作用の多くは空間的にも意味的にも冗長であることがわかった。
本稿では,これらの冗長性を解消するための高効率なフレームワークであるPKAを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:39:10Z) - Rethinking Autoregressive Models for Lossless Image Compression via Hierarchical Parallelism and Progressive Adaptation [75.58269386927076]
自己回帰(AR)モデルは、しばしば計算コストの禁止のために非現実的に除外される。
この研究は、階層的並列性とプログレッシブ適応に基づくフレームワークを導入して、このパラダイムを再考する。
各種データセット(自然,衛星,医療)の実験により,本手法が新たな最先端圧縮を実現することを確認した。
論文 参考訳(メタデータ) (2025-11-14T06:27:58Z) - OmniSAT: Compact Action Token, Faster Auto Regression [70.70037017501357]
我々は、コンパクトで転送可能なアクション表現を学ぶOmni Swift Action Tokenizerを紹介する。
その結果、離散トークン化はトレーニングシーケンスを6.8$times$に短縮し、ターゲットエントロピーを低下させる。
論文 参考訳(メタデータ) (2025-10-08T03:55:24Z) - The Curious Case of In-Training Compression of State Space Models [49.819321766705514]
ステートスペースモデル(SSM)は、並列化可能なトレーニングと高速推論の両方を提供する。
鍵となる設計上の課題は、表現力の最大化と計算負荷の制限の間の適切なバランスを打つことだ。
我々のアプローチである textscCompreSSM はリニアリカレントユニットのような線形時間不変SSMに適用されるが、選択モデルにも拡張可能である。
論文 参考訳(メタデータ) (2025-10-03T09:02:33Z) - HSACNet: Hierarchical Scale-Aware Consistency Regularized Semi-Supervised Change Detection [23.845481028378718]
半教師付き変化検出(SSCD)は,限られたラベル付きデータと豊富なラベル付きデータを用いて,両時間的リモートセンシング画像間の変化を検出することを目的としている。
本稿では,SSCDのための階層型スケール・アウェア・一貫性正規化ネットワークHSACNetを提案する。
HSACNetは,パラメータと計算コストを削減し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-04-18T03:00:52Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - A Generic Network Compression Framework for Sequential Recommender
Systems [71.81962915192022]
シークエンシャルレコメンデーションシステム(SRS)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。
CpRecと呼ばれる圧縮されたシーケンシャルレコメンデーションフレームワークを提案する。
大規模なアブレーション研究により、提案したCpRecは実世界のSRSデータセットにおいて最大4$sim$8倍の圧縮速度を達成できることを示した。
論文 参考訳(メタデータ) (2020-04-21T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。