論文の概要: GLINT-RU: Gated Lightweight Intelligent Recurrent Units for Sequential Recommender Systems
- arxiv url: http://arxiv.org/abs/2406.10244v2
- Date: Sat, 01 Feb 2025 15:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:05:47.847552
- Title: GLINT-RU: Gated Lightweight Intelligent Recurrent Units for Sequential Recommender Systems
- Title(参考訳): GLINT-RU:逐次リコメンダシステムのための軽量インテリジェントリカレントユニット
- Authors: Sheng Zhang, Maolin Wang, Wanyu Wang, Jingtong Gao, Xiangyu Zhao, Yu Yang, Xuetao Wei, Zitao Liu, Tong Xu,
- Abstract要約: 本稿では,軽量かつ効率的なトランスフォーマーベースシーケンシャルレコメンデータシステムであるGLINT-RUを紹介する。
厳密な選択ゲートを組み込むことで、GLINT-RUは時間依存と微粒な位置情報を適応的にキャプチャし、高品質な潜伏表現を生成する。
3つのデータセットに対する大規模な実験により、GLINT-RUはより優れた予測精度と推論速度を達成することが示された。
- 参考スコア(独自算出の注目度): 32.859977720871356
- License:
- Abstract: Transformer-based models have gained significant traction in sequential recommender systems (SRSs) for their ability to capture user-item interactions effectively. However, these models often suffer from high computational costs and slow inference. Meanwhile, existing efficient SRS approaches struggle to embed high-quality semantic and positional information into latent representations. To tackle these challenges, this paper introduces GLINT-RU, a lightweight and efficient SRS leveraging a single-layer dense selective Gated Recurrent Units (GRU) module to accelerate inference. By incorporating a dense selective gate, GLINT-RU adaptively captures temporal dependencies and fine-grained positional information, generating high-quality latent representations. Additionally, a parallel mixing block infuses fine-grained positional features into user-item interactions, enhancing both recommendation quality and efficiency. Extensive experiments on three datasets demonstrate that GLINT-RU achieves superior prediction accuracy and inference speed, outperforming baselines based on RNNs, Transformers, MLPs, and SSMs. These results establish GLINT-RU as a powerful and efficient solution for SRSs.
- Abstract(参考訳): トランスフォーマーベースのモデルは、ユーザとイテムの相互作用を効果的に捉える能力のために、シーケンシャルレコメンデータシステム(SRS)において大きな注目を集めている。
しかし、これらのモデルは高い計算コストと遅い推論に悩まされることが多い。
一方、既存の効率的なSRSアプローチは、高品質な意味情報と位置情報を潜在表現に埋め込むのに苦労している。
これらの課題に対処するために,単一層選択型GRUモジュールを用いた軽量かつ効率的なSRSであるGLINT-RUを導入し,推論を高速化する。
厳密な選択ゲートを組み込むことで、GLINT-RUは時間依存と微粒な位置情報を適応的にキャプチャし、高品質な潜伏表現を生成する。
さらに、並列ミキシングブロックは、ユーザとイテムのインタラクションにきめ細かい位置特徴を注入し、推奨品質と効率の両方を高める。
3つのデータセットに対する大規模な実験により、GLINT-RUは、RNN、Transformer、MLP、SSMに基づくベースラインよりも優れた予測精度と推論速度を達成することが示された。
これらの結果は、GLINT-RUをSRSの強力で効率的な解として確立する。
関連論文リスト
- Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Bidirectional Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - Delayed Memory Unit: Modelling Temporal Dependency Through Delay Gate [16.4160685571157]
リカレントニューラルネットワーク(RNN)は、時間的依存をモデル化する能力で広く認識されている。
本稿では、ゲートRNNのための新しい遅延メモリユニット(DMU)を提案する。
DMUは遅延線構造と遅延ゲートをバニラRNNに組み込み、時間的相互作用を高め、時間的信用割り当てを容易にする。
論文 参考訳(メタデータ) (2023-10-23T14:29:48Z) - Faster Learning of Temporal Action Proposal via Sparse Multilevel
Boundary Generator [9.038216757761955]
ビデオにおける時間的行動のローカライゼーションは、コンピュータビジョンの分野で大きな課題を呈している。
本稿では,境界分類と動作完全性回帰を用いた境界感性手法を改良したSMBG(Sparse Multilevel boundary Generator)を提案する。
提案手法は,ActivityNet-1.3 と THUMOS14 の2つのベンチマークで評価され,より高速な推論速度 (2.47xBSN++, 2.12xDBG) で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-06T14:26:56Z) - GUESR: A Global Unsupervised Data-Enhancement with Bucket-Cluster
Sampling for Sequential Recommendation [58.6450834556133]
本研究では,グローバルな視点から複雑な関連性を持つ項目表現を強化するために,グラフコントラスト学習を提案する。
本稿では,CapsNetモジュールを拡張したターゲットアテンション機構により,ユーザの動的嗜好を導出する。
提案したGUESRは,大幅な改善を達成できただけでなく,汎用的な拡張戦略ともみなすことができた。
論文 参考訳(メタデータ) (2023-03-01T05:46:36Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - IMDeception: Grouped Information Distilling Super-Resolution Network [7.6146285961466]
SISR(Single-Image-Super-Resolution)は、ディープラーニング手法の最近の進歩の恩恵を受けている古典的なコンピュータビジョン問題である。
本稿では,機能集約のためのIICモジュールの代替として,GPRM(Global Progressive Refinement Module)を提案する。
また,1秒あたりのパラメータ数や浮動小数点演算量(FLOPS)をさらに削減するために,GIDB(Grouped Information Distilling Blocks)を提案する。
実験の結果,提案したネットワークは,パラメータ数やFLOPSが限られているにもかかわらず,最先端モデルと同等に動作していることがわかった。
論文 参考訳(メタデータ) (2022-04-25T06:43:45Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Lightweight Self-Attentive Sequential Recommendation [30.048184102259494]
シーケンシャルレコメンデーションのために,新しい軽量自己注意ネットワーク(LSAN)を導入する。
元の埋め込み行列を積極的に圧縮するために、LSANは構成埋め込みの概念を利用する。
本稿では,各項目の内在的ダイナミクスを考慮し,時間的文脈認識型埋め込み合成スキームを提案する。
論文 参考訳(メタデータ) (2021-08-25T16:46:47Z) - Refined Gate: A Simple and Effective Gating Mechanism for Recurrent
Units [68.30422112784355]
本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。
提案したゲートは、抽出された入力特徴とバニラゲートの出力を直接的にショートする。
LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。
論文 参考訳(メタデータ) (2020-02-26T07:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。