論文の概要: Netflix and Forget: Efficient and Exact Machine Unlearning from
Bi-linear Recommendations
- arxiv url: http://arxiv.org/abs/2302.06676v1
- Date: Mon, 13 Feb 2023 20:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:14:31.304617
- Title: Netflix and Forget: Efficient and Exact Machine Unlearning from
Bi-linear Recommendations
- Title(参考訳): netflix and forget: 双方向レコメンデーションによる効率的かつ正確なマシンアンラーニング
- Authors: Mimee Xu, Jiankai Sun, Xin Yang, Kevin Yao, Chong Wang
- Abstract要約: 本稿では,行列補完に基づくリコメンデーションのための単純だが広範囲に展開されたバイ線形モデルに焦点を当てる。
本研究は,Alternating Least Squaresの下での微調整手順にいくつかの重要な変更を加えることにより,Unlearn-ALSを開発した。
実験の結果,Unlearn-ALSは幻想的モデル劣化を伴わない再訓練と整合性を示し,急速な収束を示した。
- 参考スコア(独自算出の注目度): 15.789980605221672
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: People break up, miscarry, and lose loved ones. Their online streaming and
shopping recommendations, however, do not necessarily update, and may serve as
unhappy reminders of their loss. When users want to renege on their past
actions, they expect the recommender platforms to erase selective data at the
model level. Ideally, given any specified user history, the recommender can
unwind or "forget", as if the record was not part of training. To that end,
this paper focuses on simple but widely deployed bi-linear models for
recommendations based on matrix completion. Without incurring the cost of
re-training, and without degrading the model unnecessarily, we develop
Unlearn-ALS by making a few key modifications to the fine-tuning procedure
under Alternating Least Squares optimisation, thus applicable to any bi-linear
models regardless of the training procedure. We show that Unlearn-ALS is
consistent with retraining without \emph{any} model degradation and exhibits
rapid convergence, making it suitable for a large class of existing
recommenders.
- Abstract(参考訳): 人々は別れ、流産し、愛する人を失います。
しかし、オンラインストリーミングとショッピングのレコメンデーションは必ずしも更新されず、損失の不幸なリマインダーとして機能する可能性がある。
ユーザが過去のアクションを再確認したい場合、レコメンダプラットフォームがモデルレベルで選択したデータを消去することを期待する。
理想的には、特定のユーザ履歴を考慮すれば、レコードがトレーニングの一部ではないかのように、レコメンデータは巻き戻し、あるいは"忘れる"ことができる。
そこで本稿では,行列の完全性に基づく推薦のための,単純かつ広く展開された双線形モデルについて述べる。
再トレーニングのコストを伴わず、かつ、不必要にモデルを劣化させることなく、最小二乗最適化を交互に行う微調整手順にいくつかの重要な変更を加え、トレーニング手順にかかわらず任意の双線型モデルに適用する。
我々は,unlearn-als は \emph{any} モデル劣化を伴わない再トレーニングと一致し,高速収束を示し,既存のレコメンデータの大きなクラスに適していることを示す。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Alternate Preference Optimization for Unlearning Factual Knowledge in Large Language Models [2.0962367975513496]
機械学習は、特定のトレーニングデータの影響をモデルから効率的に排除することを目的としている。
既存の未学習手法は, 無視集合に関連する応答を抑制するために, 負のフィードバックのみに頼っている。
本稿では,AltPO(Alternate Preference Optimization)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-20T13:05:07Z) - Personalized Negative Reservoir for Incremental Learning in Recommender
Systems [22.227137206517142]
レコメンダシステムはオンラインプラットフォームにおいて不可欠な部分となっている。
トレーニングデータの量は毎日増加しており、ユーザインタラクションの数は常に増加しています。
より大きな、より表現力のあるモデルの探索は、ユーザーエクスペリエンスを改善するために必要となる。
論文 参考訳(メタデータ) (2024-03-06T19:08:28Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Recommendation Unlearning via Influence Function [42.4931807753579]
本稿では,新しいインフルエンス関数に基づく推薦アンラーニング(IFRU, Recommendation Unlearning)フレームワークを提案する。
IFRUは、フルリトレーニングに匹敵するレコメンデーションパフォーマンスを持つリトレーニングベースの手法と比較して、250倍以上のアクセラレーションを実現している。
論文 参考訳(メタデータ) (2023-07-05T09:42:51Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - Implicit Parameter-free Online Learning with Truncated Linear Models [51.71216912089413]
パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
論文 参考訳(メタデータ) (2022-03-19T13:39:49Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Incremental Learning for Personalized Recommender Systems [8.020546404087922]
トレーニング効率とモデル品質の両方を提供するために,インクリメンタルな学習ソリューションを提案する。
このソリューションはLinkedInにデプロイされ、産業規模のレコメンデーションシステムに直接適用される。
論文 参考訳(メタデータ) (2021-08-13T04:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。