論文の概要: Memory Augmented Neural Model for Incremental Session-based
Recommendation
- arxiv url: http://arxiv.org/abs/2005.01573v1
- Date: Tue, 28 Apr 2020 19:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:41:15.729180
- Title: Memory Augmented Neural Model for Incremental Session-based
Recommendation
- Title(参考訳): インクリメンタルセッションベースレコメンデーションのためのメモリ拡張ニューラルモデル
- Authors: Fei Mi, Boi Faltings
- Abstract要約: インクリメンタルセッションベースのレコメンデーションシナリオでは,既存のニューラルレコメンデータが使用できることを示す。
メモリ拡張ニューラルモデル(MAN)と呼ばれる一般的なフレームワークを提案する。
MANは、継続的にクエリされ更新された非パラメトリックメモリでベース神経レコメンデータを強化する。
- 参考スコア(独自算出の注目度): 36.33193124174747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing concerns with privacy have stimulated interests in Session-based
Recommendation (SR) using no personal data other than what is observed in the
current browser session. Existing methods are evaluated in static settings
which rarely occur in real-world applications. To better address the dynamic
nature of SR tasks, we study an incremental SR scenario, where new items and
preferences appear continuously. We show that existing neural recommenders can
be used in incremental SR scenarios with small incremental updates to alleviate
computation overhead and catastrophic forgetting. More importantly, we propose
a general framework called Memory Augmented Neural model (MAN). MAN augments a
base neural recommender with a continuously queried and updated nonparametric
memory, and the predictions from the neural and the memory components are
combined through another lightweight gating network. We empirically show that
MAN is well-suited for the incremental SR task, and it consistently outperforms
state-of-the-art neural and nonparametric methods. We analyze the results and
demonstrate that it is particularly good at incrementally learning preferences
on new and infrequent items.
- Abstract(参考訳): プライバシーへの懸念の高まりは、現在のブラウザセッションで観察されるもの以外の個人データを使用しないセッションベースレコメンデーション(sr)の関心を刺激している。
既存の手法は、現実のアプリケーションではめったに起こらない静的な設定で評価される。
SRタスクの動的性質を改善するために,新たな項目や嗜好が連続的に現れる段階的なSRシナリオについて検討する。
既存のニューラルリコメンデータは、計算オーバーヘッドの軽減と破滅的な忘れるために小さなインクリメンタルアップデートで、インクリメンタルなsrシナリオで使用できる。
さらに,メモリ拡張ニューラルモデル(man)と呼ばれる汎用フレームワークを提案する。
MANは、継続的にクエリされ更新された非パラメトリックメモリでベースとなるニューラルレコメンデータを拡張し、ニューラルとメモリコンポーネントからの予測は、別の軽量ゲーティングネットワークを介して結合される。
我々は、MANが漸進的SRタスクに適していることを実証的に示し、最先端のニューラルおよび非パラメトリック手法を一貫して上回っていることを示す。
結果を分析し,新しい項目や頻度の低い項目の嗜好を漸進的に学習することが特に有効であることを示す。
関連論文リスト
- Meta-INR: Efficient Encoding of Volumetric Data via Meta-Learning Implicit Neural Representation [4.782024723712711]
Inlicit Neural representation (INR)は、ボリュームデータを符号化するための有望なソリューションとして登場した。
メタ学習アルゴリズムを用いて,データセットの部分的な観察から初期INRパラメータを学習するための事前学習戦略であるMeta-INRを提案する。
我々は,Meta-INRが,様々なデータセットにまたがる類似ボリュームデータをエンコードする上で有効な,高品質な一般化可能な特徴を効果的に抽出できることを実証した。
論文 参考訳(メタデータ) (2025-02-12T21:54:22Z) - Noise-Resilient Symbolic Regression with Dynamic Gating Reinforcement Learning [2.052874815811944]
シンボリック回帰は、データ内の本質的な情報を明らかにするための重要な手法として登場した。
現在の最先端(ソータ)SR法は,高雑音データからシンボル表現の正確な復元に苦慮している。
本稿では,高雑音データから表現を復元できる新しい雑音耐性SR法を提案する。
論文 参考訳(メタデータ) (2025-01-02T06:05:59Z) - Memory-augmented conformer for improved end-to-end long-form ASR [9.876354589883002]
本稿では,コンバータのエンコーダとデコーダ間のメモリ拡張ニューラルネットワークを提案する。
この外部メモリは、より長い発話の一般化を豊かにすることができる。
提案方式は,長い発話に対してメモリを使わずにベースラインコンバータより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-22T17:44:58Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - On the Curse of Memory in Recurrent Neural Networks: Approximation and Optimization Analysis [30.75240284934018]
本稿では,線形関係から生成されたデータから連続時間線形RNNを学習するための単純だが代表的な設定について考察する。
このような線形汎函数の普遍近似定理を証明し、近似率とそのメモリとの関係を特徴づける。
統一されたテーマはメモリの非自明な効果であり、これは我々のフレームワークで正確に記述できる概念である。
論文 参考訳(メタデータ) (2020-09-16T16:48:28Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。