論文の概要: ADER: Adaptively Distilled Exemplar Replay Towards Continual Learning
for Session-based Recommendation
- arxiv url: http://arxiv.org/abs/2007.12000v1
- Date: Thu, 23 Jul 2020 13:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:12:31.444303
- Title: ADER: Adaptively Distilled Exemplar Replay Towards Continual Learning
for Session-based Recommendation
- Title(参考訳): ader: セッションベースレコメンデーションのための継続的学習に向けた適応蒸留exemplarリプレイ
- Authors: Fei Mi, Xiaoyu Lin, and Boi Faltings
- Abstract要約: セッションベースのレコメンデーションは最近、プライバシーの懸念が高まり、注目を集めている。
本稿では,従来のトレーニングサンプルを定期的に再生することで,ADER(Adaptively Distilled Exemplar Replay)と呼ばれる手法を提案する。
ADERは他のベースラインを一貫して上回り、更新サイクル毎にすべての履歴データを使用してメソッドを上回ります。
- 参考スコア(独自算出の注目度): 28.22402119581332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommendation has received growing attention recently due to
the increasing privacy concern. Despite the recent success of neural
session-based recommenders, they are typically developed in an offline manner
using a static dataset. However, recommendation requires continual adaptation
to take into account new and obsolete items and users, and requires "continual
learning" in real-life applications. In this case, the recommender is updated
continually and periodically with new data that arrives in each update cycle,
and the updated model needs to provide recommendations for user activities
before the next model update. A major challenge for continual learning with
neural models is catastrophic forgetting, in which a continually trained model
forgets user preference patterns it has learned before. To deal with this
challenge, we propose a method called Adaptively Distilled Exemplar Replay
(ADER) by periodically replaying previous training samples (i.e., exemplars) to
the current model with an adaptive distillation loss. Experiments are conducted
based on the state-of-the-art SASRec model using two widely used datasets to
benchmark ADER with several well-known continual learning techniques. We
empirically demonstrate that ADER consistently outperforms other baselines, and
it even outperforms the method using all historical data at every update cycle.
This result reveals that ADER is a promising solution to mitigate the
catastrophic forgetting issue towards building more realistic and scalable
session-based recommenders.
- Abstract(参考訳): セッションベースのレコメンデーションは最近、プライバシーの懸念が高まり、注目を集めている。
最近のニューラルセッションベースのレコメンデータの成功にもかかわらず、それらは通常、静的データセットを使用してオフラインで開発される。
しかし、リコメンデーションは、新しい、時代遅れのアイテムやユーザーを考慮に入れ、現実のアプリケーションで"継続的な学習"を必要とする。
この場合、リコメンデータは更新サイクル毎に新しいデータとともに継続的に定期的に更新され、更新されたモデルは次のモデル更新の前にユーザアクティビティのレコメンデーションを提供する必要がある。
神経モデルによる継続的学習の最大の課題は破滅的な忘れ方であり、継続的に訓練されたモデルは、これまで学んだユーザの好みパターンを忘れてしまう。
この課題に対処するため,従来のトレーニングサンプル(例題)を適応蒸留損失のある現行モデルに定期的に再生することで,ADER(Adaptively Distilled Exemplar Replay)と呼ばれる手法を提案する。
実験は、2つの広く使われているデータセットを使用して、最先端のSASRecモデルに基づいて、ADERをいくつかのよく知られた連続学習技術でベンチマークする。
ADERが他のベースラインを一貫して上回り、更新サイクル毎にすべての履歴データを使用してメソッドを上回ります。
この結果から、ADERは、より現実的でスケーラブルなセッションベースのレコメンデータを構築するために、破滅的な忘れる問題を緩和する、有望なソリューションであることが明らかになった。
関連論文リスト
- TTT4Rec: A Test-Time Training Approach for Rapid Adaption in Sequential Recommendation [11.15566809055308]
テスト時間トレーニング(TTT)は、推論中に自己教師付き学習を使用してモデルパラメータを動的に更新することで、新しいアプローチを提供する。
TTT4Recは,動的ユーザの振る舞いをよりよく捉えるためにTTTを統合したシーケンシャルレコメンデーションフレームワークである。
我々は、TTT4Recを3つの広く使われているレコメンデーションデータセットで評価し、最先端のモデルと同等以上のパフォーマンスを達成できることを実証した。
論文 参考訳(メタデータ) (2024-09-27T21:14:23Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Federated Privacy-preserving Collaborative Filtering for On-Device Next
App Prediction [52.16923290335873]
本稿では,モバイルデバイス使用時の次のアプリの起動を予測するための新しいSeqMFモデルを提案する。
古典行列分解モデルの構造を修正し、学習手順を逐次学習に更新する。
提案手法のもうひとつの要素は,ユーザからリモートサーバへの送信データの保護を保証する,新たなプライバシメカニズムである。
論文 参考訳(メタデータ) (2023-02-05T10:29:57Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Hybrid Model with Time Modeling for Sequential Recommender Systems [0.15229257192293202]
Booking.comはWSDM WebTour 2021 Challengeを組織した。
レコメンダシステムのための最先端のディープラーニングアーキテクチャをテストするために,いくつかの実験を行った。
実験結果から,narmの改善は他のベンチマーク手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-07T19:28:22Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。