論文の概要: Customized Retrieval-Augmented Generation with LLM for Debiasing Recommendation Unlearning
- arxiv url: http://arxiv.org/abs/2511.05494v1
- Date: Wed, 10 Sep 2025 08:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.141617
- Title: Customized Retrieval-Augmented Generation with LLM for Debiasing Recommendation Unlearning
- Title(参考訳): レコメンデーション・アンラーニングを損なうためのLLMを用いたカスタム検索用拡張ジェネレーション
- Authors: Haichao Zhang, Chong Zhang, Peiyu Hu, Shi Qiu, Jia Wang,
- Abstract要約: CRAGRUは、効率的でユーザ固有のアンラーニングのための新しいフレームワークである。
推奨品質を維持しながら、未学習のバイアスを軽減する。
我々の研究は、堅牢でプライバシ保護のレコメンデータシステムを構築するためのRAGベースのアーキテクチャの約束を強調します。
- 参考スコア(独自算出の注目度): 11.187910465178078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern recommender systems face a critical challenge in complying with privacy regulations like the 'right to be forgotten': removing a user's data without disrupting recommendations for others. Traditional unlearning methods address this by partial model updates, but introduce propagation bias--where unlearning one user's data distorts recommendations for behaviorally similar users, degrading system accuracy. While retraining eliminates bias, it is computationally prohibitive for large-scale systems. To address this challenge, we propose CRAGRU, a novel framework leveraging Retrieval-Augmented Generation (RAG) for efficient, user-specific unlearning that mitigates bias while preserving recommendation quality. CRAGRU decouples unlearning into distinct retrieval and generation stages. In retrieval, we employ three tailored strategies designed to precisely isolate the target user's data influence, minimizing collateral impact on unrelated users and enhancing unlearning efficiency. Subsequently, the generation stage utilizes an LLM, augmented with user profiles integrated into prompts, to reconstruct accurate and personalized recommendations without needing to retrain the entire base model. Experiments on three public datasets demonstrate that CRAGRU effectively unlearns targeted user data, significantly mitigating unlearning bias by preventing adverse impacts on non-target users, while maintaining recommendation performance comparable to fully trained original models. Our work highlights the promise of RAG-based architectures for building robust and privacy-preserving recommender systems. The source code is available at: https://github.com/zhanghaichao520/LLM_rec_unlearning.
- Abstract(参考訳): 現代のレコメンデーションシステムは、「忘れられる権利」のようなプライバシー規則に従う上で重要な課題に直面している。
従来のアンラーニング手法は、部分的なモデル更新によってこの問題に対処するが、伝播バイアスを導入する。
リトレーニングはバイアスを排除しますが、大規模システムでは計算的に禁止されます。
この課題に対処するため、我々は、レコメンデーション品質を保ちながらバイアスを緩和する効率的でユーザ固有の未学習にRAG(Retrieval-Augmented Generation)を活用する新しいフレームワークであるCRAGRUを提案する。
CRAGRUはアンラーニングを異なる検索と生成段階に分離する。
検索では,対象ユーザのデータ影響を正確に分離し,非関連ユーザへの相互的影響を最小限に抑え,学習効率を向上させるために,3つの調整戦略を採用する。
その後、生成ステージでは、ユーザプロファイルをプロンプトに統合したLLMを使用して、ベースモデル全体を再トレーニングすることなく、正確でパーソナライズされたレコメンデーションを再構築する。
3つの公開データセットの実験では、CRAGRUがターゲットとするユーザデータを効果的に解放し、非ターゲットユーザに対する悪影響を防ぎながら、完全にトレーニングされたオリジナルモデルに匹敵するレコメンデーションパフォーマンスを維持しながら、未学習バイアスを著しく軽減することを示した。
我々の研究は、堅牢でプライバシ保護のレコメンデータシステムを構築するためのRAGベースのアーキテクチャの約束を強調します。
ソースコードは、https://github.com/zhanghaichao520/LLM_rec_unlearningで入手できる。
関連論文リスト
- Pre-training for Recommendation Unlearning [14.514770044236375]
UnlearnRecはモデルに依存しない事前学習パラダイムであり、効率的な未学習操作のためのシステムを準備している。
本手法は,再学習手法に比べて10倍以上の高速化を実現した。
論文 参考訳(メタデータ) (2025-05-28T17:57:11Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z) - CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence [55.21518669075263]
CURE4Recは、レコメンデーションアンラーニング評価のための最初の包括的なベンチマークである。
さまざまな影響レベルのデータに対する推薦公正性と堅牢性に対するアンラーニングの影響について検討する。
論文 参考訳(メタデータ) (2024-08-26T16:21:50Z) - Personalized Negative Reservoir for Incremental Learning in Recommender Systems [20.346543608461204]
商用環境では、一度レコメンデーションシステムモデルがトレーニングされ、デプロイされると、新しいクライアントデータが到着すると頻繁に更新する必要があります。
新しいデータのみを微調整することは、破滅的な忘れ方という、よく文書化された問題に陥る。
本稿では,グラフベースのレコメンデーションシステムにおいて,標準的なトリプルト損失に対する負のサンプルを得るために,パーソナライズされた負の貯水池戦略を提案する。
論文 参考訳(メタデータ) (2024-03-06T19:08:28Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。