論文の概要: Memory Augmented Neural Model for Incremental Session-based
Recommendation
- arxiv url: http://arxiv.org/abs/2005.01573v1
- Date: Tue, 28 Apr 2020 19:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:41:15.729180
- Title: Memory Augmented Neural Model for Incremental Session-based
Recommendation
- Title(参考訳): インクリメンタルセッションベースレコメンデーションのためのメモリ拡張ニューラルモデル
- Authors: Fei Mi, Boi Faltings
- Abstract要約: インクリメンタルセッションベースのレコメンデーションシナリオでは,既存のニューラルレコメンデータが使用できることを示す。
メモリ拡張ニューラルモデル(MAN)と呼ばれる一般的なフレームワークを提案する。
MANは、継続的にクエリされ更新された非パラメトリックメモリでベース神経レコメンデータを強化する。
- 参考スコア(独自算出の注目度): 36.33193124174747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing concerns with privacy have stimulated interests in Session-based
Recommendation (SR) using no personal data other than what is observed in the
current browser session. Existing methods are evaluated in static settings
which rarely occur in real-world applications. To better address the dynamic
nature of SR tasks, we study an incremental SR scenario, where new items and
preferences appear continuously. We show that existing neural recommenders can
be used in incremental SR scenarios with small incremental updates to alleviate
computation overhead and catastrophic forgetting. More importantly, we propose
a general framework called Memory Augmented Neural model (MAN). MAN augments a
base neural recommender with a continuously queried and updated nonparametric
memory, and the predictions from the neural and the memory components are
combined through another lightweight gating network. We empirically show that
MAN is well-suited for the incremental SR task, and it consistently outperforms
state-of-the-art neural and nonparametric methods. We analyze the results and
demonstrate that it is particularly good at incrementally learning preferences
on new and infrequent items.
- Abstract(参考訳): プライバシーへの懸念の高まりは、現在のブラウザセッションで観察されるもの以外の個人データを使用しないセッションベースレコメンデーション(sr)の関心を刺激している。
既存の手法は、現実のアプリケーションではめったに起こらない静的な設定で評価される。
SRタスクの動的性質を改善するために,新たな項目や嗜好が連続的に現れる段階的なSRシナリオについて検討する。
既存のニューラルリコメンデータは、計算オーバーヘッドの軽減と破滅的な忘れるために小さなインクリメンタルアップデートで、インクリメンタルなsrシナリオで使用できる。
さらに,メモリ拡張ニューラルモデル(man)と呼ばれる汎用フレームワークを提案する。
MANは、継続的にクエリされ更新された非パラメトリックメモリでベースとなるニューラルレコメンデータを拡張し、ニューラルとメモリコンポーネントからの予測は、別の軽量ゲーティングネットワークを介して結合される。
我々は、MANが漸進的SRタスクに適していることを実証的に示し、最先端のニューラルおよび非パラメトリック手法を一貫して上回っていることを示す。
結果を分析し,新しい項目や頻度の低い項目の嗜好を漸進的に学習することが特に有効であることを示す。
関連論文リスト
- Memory-augmented conformer for improved end-to-end long-form ASR [9.876354589883002]
本稿では,コンバータのエンコーダとデコーダ間のメモリ拡張ニューラルネットワークを提案する。
この外部メモリは、より長い発話の一般化を豊かにすることができる。
提案方式は,長い発話に対してメモリを使わずにベースラインコンバータより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-22T17:44:58Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - The impact of memory on learning sequence-to-sequence tasks [6.603326895384289]
自然言語処理におけるニューラルネットワークの最近の成功は、シーケンシャル・ツー・シーケンス(seq2seq)タスクに新たな注目を集めている。
本稿では,シークエンスにおけるメモリの次数,すなわち非マルコビアン性に対する明示的な制御の利点を生かしたSeq2seqタスクのモデルを提案する。
論文 参考訳(メタデータ) (2022-05-29T14:57:33Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Factorized Neural Processes for Neural Processes: $K$-Shot Prediction of
Neural Responses [9.792408261365043]
我々は,小さな刺激応答対からニューロンのチューニング関数を推定するファクトリズ・ニューラル・プロセスを開発した。
本稿では,ニューラルプロセスからの予測および再構成された受容場が,試行数の増加とともに真理に近づいたことをシミュレートした応答を示す。
この新しいディープラーニングシステム識別フレームワークは、ニューラルネットワークモデリングを神経科学実験にリアルタイムに組み込むのに役立つと信じている。
論文 参考訳(メタデータ) (2020-10-22T15:43:59Z) - On the Curse of Memory in Recurrent Neural Networks: Approximation and Optimization Analysis [30.75240284934018]
本稿では,線形関係から生成されたデータから連続時間線形RNNを学習するための単純だが代表的な設定について考察する。
このような線形汎函数の普遍近似定理を証明し、近似率とそのメモリとの関係を特徴づける。
統一されたテーマはメモリの非自明な効果であり、これは我々のフレームワークで正確に記述できる概念である。
論文 参考訳(メタデータ) (2020-09-16T16:48:28Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。