論文の概要: Efficiently Maintaining Next Basket Recommendations under Additions and
Deletions of Baskets and Items
- arxiv url: http://arxiv.org/abs/2201.13313v1
- Date: Thu, 27 Jan 2022 13:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 10:17:23.550285
- Title: Efficiently Maintaining Next Basket Recommendations under Additions and
Deletions of Baskets and Items
- Title(参考訳): バスケット・アイテムの追加・削除による次回の推奨事項の効率的な維持
- Authors: Benjamin Longxiang Wang, Sebastian Schelter
- Abstract要約: 『一般データ保護規則』()は、ユーザーが「忘れられる権利」を行使する場合、要求に応じて個人データを削除することを要求する。
我々は、最先端の次のバスケットレコメンデーションモデルを漸進的かつ退行的に更新する効率的なアルゴリズムを設計する。
我々は,様々な実世界のデータセットの実装を評価し,モデル更新の実行時間を計測する。
- 参考スコア(独自算出の注目度): 11.519663961203783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems play an important role in helping people find information
and make decisions in today's increasingly digitalized societies. However, the
wide adoption of such machine learning applications also causes concerns in
terms of data privacy. These concerns are addressed by the recent "General Data
Protection Regulation" (GDPR) in Europe, which requires companies to delete
personal user data upon request when users enforce their "right to be
forgotten". Many researchers argue that this deletion obligation does not only
apply to the data stored in primary data stores such as relational databases
but also requires an update of machine learning models whose training set
included the personal data to delete. We explore this direction in the context
of a sequential recommendation task called Next Basket Recommendation (NBR),
where the goal is to recommend a set of items based on a user's purchase
history. We design efficient algorithms for incrementally and decrementally
updating a state-of-the-art next basket recommendation model in response to
additions and deletions of user baskets and items. Furthermore, we discuss an
efficient, data-parallel implementation of our method in the Spark Structured
Streaming system. We evaluate our implementation on a variety of real-world
datasets, where we investigate the impact of our update techniques on several
ranking metrics and measure the time to perform model updates. Our results show
that our method provides constant update time efficiency with respect to an
additional user basket in the incremental case, and linear efficiency in the
decremental case where we delete existing baskets. With modest computational
resources, we are able to update models with a latency of around
0.2~milliseconds regardless of the history size in the incremental case, and
less than one millisecond in the decremental case.
- Abstract(参考訳): レコメンダシステムは、人々が情報を見つけ、今日のデジタル化社会における決定を下すのを助ける重要な役割を果たす。
しかし、このような機械学習アプリケーションが広く採用されると、データのプライバシーに関する懸念も生じる。
これらの懸念は、欧州の最近の"general data protection regulation"(gdpr)によって対処されている。
多くの研究者は、この削除義務はリレーショナルデータベースのようなプライマリデータストアに格納されているデータに適用されるだけでなく、個人データを含むトレーニングセットを含む機械学習モデルの更新も必要であると主張している。
我々は,ユーザの購入履歴に基づいて一連のアイテムを推薦することを目的とした,next basket recommendation(nbr)と呼ばれる逐次レコメンデーションタスクの文脈で,この方向を考察する。
ユーザのバスケットやアイテムの追加や削除に応じて,最先端のバスケットレコメンデーションモデルを段階的かつデクリメント的に更新するための効率的なアルゴリズムを設計した。
さらに,Spark Structured Streamingシステムにおいて,本手法の効率的なデータ並列実装について論じる。
我々は,さまざまな実世界のデータセットに対する実装評価を行い,更新手法がいくつかのランキング指標に与える影響を調査し,モデル更新の実行時間を測定する。
提案手法は,インクリメンタルな場合において,追加のユーザバスケットに対して一定の更新時間効率と,既存のバスケットを削除するデクリメンタルな場合の線形効率を提供する。
控えめな計算資源により、インクリメンタルケースの履歴サイズに関わらず、約0.2〜ミリ秒のレイテンシでモデルを更新でき、デクリメンタルケースでは1ミリ秒未満で更新できる。
関連論文リスト
- Data Deletion for Linear Regression with Noisy SGD [9.784347635082232]
古典線形回帰タスクにおける1ステップ雑音SGDの完全削除点問題を提案する。
本研究は,データ削除の重要性を浮き彫りにして,この分野におけるさらなる研究の必要性を緊急に求めるものである。
論文 参考訳(メタデータ) (2024-10-12T00:20:26Z) - DUEL: Duplicate Elimination on Active Memory for Self-Supervised
Class-Imbalanced Learning [19.717868805172323]
新たなフレームワークであるDuplicate Elimination(DUEL)の自己教師付き事前学習におけるアクティブなデータフィルタリングプロセスを提案する。
このフレームワークは、人間のワーキングメモリにインスパイアされたアクティブメモリを統合し、メモリ内のデータの多様性を測定する特異性情報を導入する。
最も重複したデータを新しいサンプルに置き換えるDUELポリシは、メモリ内の特異性情報を強化し、クラス不均衡を軽減することを目的としている。
論文 参考訳(メタデータ) (2024-02-14T06:09:36Z) - Dynamic Collaborative Filtering for Matrix- and Tensor-based Recommender
Systems [5.1148288291550505]
我々は、TIRecAとして知られる逐次問題に対する新しい協調フィルタリングモデルを提案する。
TIRecAは、新しいデータセグメントのみを使用してパラメータを効率的に更新し、リコメンダシステムに新たなユーザとアイテムをインクリメンタルに追加することができる。
一般行列とテンソルベースラインとの比較から,TIRecAはトレーニング時間において10~20倍高速でありながら,ベースライン法に匹敵する品質を達成できることが判明した。
論文 参考訳(メタデータ) (2023-12-04T20:45:51Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - Approximate Data Deletion in Generative Models [5.596752018167751]
生成モデルのための密度比に基づくフレームワークを提案する。
トレーニングポイントが削除されたか否かを推定するための高速なデータ削除法と統計テストを導入する。
論文 参考訳(メタデータ) (2022-06-29T07:24:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。