論文の概要: Netflix and Forget: Efficient and Exact Machine Unlearning from
Bi-linear Recommendations
- arxiv url: http://arxiv.org/abs/2302.06676v1
- Date: Mon, 13 Feb 2023 20:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:14:31.304617
- Title: Netflix and Forget: Efficient and Exact Machine Unlearning from
Bi-linear Recommendations
- Title(参考訳): netflix and forget: 双方向レコメンデーションによる効率的かつ正確なマシンアンラーニング
- Authors: Mimee Xu, Jiankai Sun, Xin Yang, Kevin Yao, Chong Wang
- Abstract要約: 本稿では,行列補完に基づくリコメンデーションのための単純だが広範囲に展開されたバイ線形モデルに焦点を当てる。
本研究は,Alternating Least Squaresの下での微調整手順にいくつかの重要な変更を加えることにより,Unlearn-ALSを開発した。
実験の結果,Unlearn-ALSは幻想的モデル劣化を伴わない再訓練と整合性を示し,急速な収束を示した。
- 参考スコア(独自算出の注目度): 15.789980605221672
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: People break up, miscarry, and lose loved ones. Their online streaming and
shopping recommendations, however, do not necessarily update, and may serve as
unhappy reminders of their loss. When users want to renege on their past
actions, they expect the recommender platforms to erase selective data at the
model level. Ideally, given any specified user history, the recommender can
unwind or "forget", as if the record was not part of training. To that end,
this paper focuses on simple but widely deployed bi-linear models for
recommendations based on matrix completion. Without incurring the cost of
re-training, and without degrading the model unnecessarily, we develop
Unlearn-ALS by making a few key modifications to the fine-tuning procedure
under Alternating Least Squares optimisation, thus applicable to any bi-linear
models regardless of the training procedure. We show that Unlearn-ALS is
consistent with retraining without \emph{any} model degradation and exhibits
rapid convergence, making it suitable for a large class of existing
recommenders.
- Abstract(参考訳): 人々は別れ、流産し、愛する人を失います。
しかし、オンラインストリーミングとショッピングのレコメンデーションは必ずしも更新されず、損失の不幸なリマインダーとして機能する可能性がある。
ユーザが過去のアクションを再確認したい場合、レコメンダプラットフォームがモデルレベルで選択したデータを消去することを期待する。
理想的には、特定のユーザ履歴を考慮すれば、レコードがトレーニングの一部ではないかのように、レコメンデータは巻き戻し、あるいは"忘れる"ことができる。
そこで本稿では,行列の完全性に基づく推薦のための,単純かつ広く展開された双線形モデルについて述べる。
再トレーニングのコストを伴わず、かつ、不必要にモデルを劣化させることなく、最小二乗最適化を交互に行う微調整手順にいくつかの重要な変更を加え、トレーニング手順にかかわらず任意の双線型モデルに適用する。
我々は,unlearn-als は \emph{any} モデル劣化を伴わない再トレーニングと一致し,高速収束を示し,既存のレコメンデータの大きなクラスに適していることを示す。
関連論文リスト
- Personalized Negative Reservoir for Incremental Learning in Recommender
Systems [22.227137206517142]
レコメンダシステムはオンラインプラットフォームにおいて不可欠な部分となっている。
トレーニングデータの量は毎日増加しており、ユーザインタラクションの数は常に増加しています。
より大きな、より表現力のあるモデルの探索は、ユーザーエクスペリエンスを改善するために必要となる。
論文 参考訳(メタデータ) (2024-03-06T19:08:28Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - Implicit Parameter-free Online Learning with Truncated Linear Models [51.71216912089413]
パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
論文 参考訳(メタデータ) (2022-03-19T13:39:49Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Incremental Learning for Personalized Recommender Systems [8.020546404087922]
トレーニング効率とモデル品質の両方を提供するために,インクリメンタルな学習ソリューションを提案する。
このソリューションはLinkedInにデプロイされ、産業規模のレコメンデーションシステムに直接適用される。
論文 参考訳(メタデータ) (2021-08-13T04:21:21Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - ADER: Adaptively Distilled Exemplar Replay Towards Continual Learning
for Session-based Recommendation [28.22402119581332]
セッションベースのレコメンデーションは最近、プライバシーの懸念が高まり、注目を集めている。
本稿では,従来のトレーニングサンプルを定期的に再生することで,ADER(Adaptively Distilled Exemplar Replay)と呼ばれる手法を提案する。
ADERは他のベースラインを一貫して上回り、更新サイクル毎にすべての履歴データを使用してメソッドを上回ります。
論文 参考訳(メタデータ) (2020-07-23T13:19:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。