論文の概要: ERASE -- A Real-World Aligned Benchmark for Unlearning in Recommender Systems
- arxiv url: http://arxiv.org/abs/2603.08341v1
- Date: Mon, 09 Mar 2026 13:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.001664
- Title: ERASE -- A Real-World Aligned Benchmark for Unlearning in Recommender Systems
- Title(参考訳): ERASE - Recommenderシステムにおける非学習のための実世界の標準ベンチマーク
- Authors: Pierre Lubitzsch, Maarten de Rijke, Sebastian Schelter,
- Abstract要約: 提案するERASEは,推薦システムにおける機械学習のための大規模ベンチマークである。
ERASEは、コラボレーティブフィルタリング、セッションベースレコメンデーション、次世代レコメンデーションの3つのコアタスクにまたがる。
これには、センシティブなインタラクションやスパムを逐次削除するなど、現実世界のアプリケーションにインスパイアされた未学習シナリオが含まれている。
- 参考スコア(独自算出の注目度): 53.62904488040001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning (MU) enables the removal of selected training data from trained models, to address privacy compliance, security, and liability issues in recommender systems. Existing MU benchmarks poorly reflect real-world recommender settings: they focus primarily on collaborative filtering, assume unrealistically large deletion requests, and overlook practical constraints such as sequential unlearning and efficiency. We present ERASE, a large-scale benchmark for MU in recommender systems designed to align with real-world usage. ERASE spans three core tasks -- collaborative filtering, session-based recommendation, and next-basket recommendation -- and includes unlearning scenarios inspired by real-world applications, such as sequentially removing sensitive interactions or spam. The benchmark covers seven unlearning algorithms, including general-purpose and recommender-specific methods, across nine public datasets and nine state-of-the-art models. We execute ERASE to produce more than 600 GB of reusable artifacts, such as extensive experimental logs and more than a thousand model checkpoints. Crucially, the artifacts that we release enable systematic analysis of where current unlearning methods succeed and where they fall short. ERASE showcases that approximate unlearning can match retraining in some settings, but robustness varies widely across datasets and architectures. Repeated unlearning exposes weaknesses in general-purpose methods, especially for attention-based and recurrent models, while recommender-specific approaches behave more reliably. ERASE provides the empirical foundation to help the community assess, drive, and track progress toward practical MU in recommender systems.
- Abstract(参考訳): マシンアンラーニング(MU)は、トレーニングされたモデルから選択されたトレーニングデータを削除し、レコメンデータシステムにおけるプライバシコンプライアンス、セキュリティ、責任問題に対処することを可能にする。
既存のMUベンチマークは、主に協調フィルタリングに焦点を当て、非現実的に大規模な削除要求を仮定し、シーケンシャルなアンラーニングや効率といった実践的な制約を見落としている。
実世界の利用と整合するように設計されたレコメンデータシステムにおけるMUの大規模ベンチマークであるERASEを提案する。
ERASEは、コラボレーティブなフィルタリング、セッションベースのレコメンデーション、次世代のレコメンデーションという3つのコアタスクにまたがっており、センシティブなインタラクションやスパムを逐次削除するなど、現実世界のアプリケーションにインスパイアされた未学習シナリオを含んでいる。
このベンチマークでは、9つのパブリックデータセットと9つの最先端モデルにまたがる、汎用およびレコメンデータ固有のメソッドを含む7つの未学習アルゴリズムをカバーしている。
大規模な実験ログや1000以上のモデルチェックポイントなど,600GB以上の再利用可能なアーティファクトを生成するためにERASEを実行します。
重要なことは、私たちがリリースしたアーティファクトは、現在の未学習のメソッドがどこで成功し、どこで不足しているかを体系的に分析できるということです。
ERASEは、近似的なアンラーニングがいくつかの設定でリトレーニングにマッチすることを示したが、堅牢性はデータセットやアーキテクチャによって大きく異なる。
反復的未学習は、特に注意に基づく、反復的なモデルにおいて、汎用的な手法の弱点を明らかにする一方、推奨者固有のアプローチはより確実に振る舞う。
ERASEは、コミュニティがレコメンデーションシステムにおいて実践的なMUに向けた進捗を評価し、推進し、追跡するのに役立つ経験的基盤を提供する。
関連論文リスト
- Can Recommender Systems Teach Themselves? A Recursive Self-Improving Framework with Fidelity Control [82.30868101940068]
本稿では,外部データや教師モデルに依存することなく,モデルが自身のパフォーマンスをブートストラップするパラダイムを提案する。
我々の理論的分析は、RSIRがデータ駆動型暗黙正則化器として機能し、最適化景観を円滑にしていることを示している。
より小さなモデルであっても利点があり、弱いモデルはより強力なモデルに対して効果的なトレーニングカリキュラムを生成することができることを示す。
論文 参考訳(メタデータ) (2026-02-17T15:31:32Z) - Towards a Real-World Aligned Benchmark for Unlearning in Recommender Systems [49.766845975588275]
推薦システムにおける非学習のためのより現実的なベンチマークの開発を導くために,設計デシダータと研究質問のセットを提案する。
我々は、現実世界の削除要求の逐次的で時間に敏感な性質を反映した、未学習のセットアップについて論じる。
本稿では,提案したdesiderataをベースとした次世代レコメンデーションセッティングの予備実験を行い,アンラーニングが逐次レコメンデーションモデルにも有効であることを確認した。
論文 参考訳(メタデータ) (2025-08-23T16:05:40Z) - Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness [30.596695293390415]
補間近似測定(Interpolated Approximate Measurement, IAM)は、非学習推論用に設計されたフレームワークである。
IAMは、クエリされたサンプルに対するモデルの一般化適合行動ギャップを補間することにより、サンプルレベルの未学習完全性を定量化する。
IAMを最近の近似アンラーニングアルゴリズムに適用し、オーバーアンラーニングとアンダーアンラーニングの両方のリスクを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T14:22:18Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Top-N Recommendation with Counterfactual User Preference Simulation [26.597102553608348]
ユーザーランキングに基づく好みの学習を目的としたTop-Nレコメンデーションは、長い間、広範囲のアプリケーションにおいて基本的な問題だった。
本稿では,データ不足問題に対処するため,因果推論フレームワーク内での推薦タスクの再構築を提案する。
論文 参考訳(メタデータ) (2021-09-02T14:28:46Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。