論文の概要: Post-Training Attribute Unlearning in Recommender Systems
- arxiv url: http://arxiv.org/abs/2403.06737v3
- Date: Thu, 24 Oct 2024 02:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:02:02.082349
- Title: Post-Training Attribute Unlearning in Recommender Systems
- Title(参考訳): Recommender システムにおける学習後属性のアンラーニング
- Authors: Chaochao Chen, Yizhao Zhang, Yuyuan Li, Jun Wang, Lianyong Qi, Xiaolong Xu, Xiaolin Zheng, Jianwei Yin,
- Abstract要約: 既存の研究では、主にトレーニングデータ、すなわちモデル入力を未学習のターゲットとして使用している。
我々は、この未知の情報をtextitattribute と呼び、未学習のターゲットとして扱う。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning(AU)は、ターゲット属性を識別不能にする。
- 参考スコア(独自算出の注目度): 37.67195112898097
- License:
- Abstract: With the growing privacy concerns in recommender systems, recommendation unlearning is getting increasing attention. Existing studies predominantly use training data, i.e., model inputs, as unlearning target. However, attackers can extract private information from the model even if it has not been explicitly encountered during training. We name this unseen information as \textit{attribute} and treat it as unlearning target. To protect the sensitive attribute of users, Attribute Unlearning (AU) aims to make target attributes indistinguishable. In this paper, we focus on a strict but practical setting of AU, namely Post-Training Attribute Unlearning (PoT-AU), where unlearning can only be performed after the training of the recommendation model is completed. To address the PoT-AU problem in recommender systems, we propose a two-component loss function. The first component is distinguishability loss, where we design a distribution-based measurement to make attribute labels indistinguishable from attackers. We further extend this measurement to handle multi-class attribute cases with efficient computational overhead. The second component is regularization loss, where we explore a function-space measurement that effectively maintains recommendation performance compared to parameter-space regularization. We use stochastic gradient descent algorithm to optimize our proposed loss. Extensive experiments on four real-world datasets demonstrate the effectiveness of our proposed methods.
- Abstract(参考訳): レコメンデーションシステムにおけるプライバシーの懸念が高まる中、リコメンデーションアンラーニングが注目を集めている。
既存の研究では、主にトレーニングデータ、すなわちモデル入力を未学習のターゲットとして使用している。
しかし、攻撃者は訓練中に明示的に遭遇していない場合でも、モデルからプライベート情報を抽出することができる。
この未知の情報をtextit{attribute} と名付け、未学習のターゲットとして扱う。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning(AU)は、ターゲット属性を識別不能にする。
本稿では,推薦モデルの学習が完了した後のみ学習を行うことのできる,厳格だが実践的なAU(Post-Training Attribute Unlearning, PoT-AU)に焦点を当てる。
推薦システムにおけるPoT-AU問題に対処するため,2成分損失関数を提案する。
第1のコンポーネントは識別可能性損失であり、アタッカーと区別できない属性ラベルを作成するために分布に基づく測定を設計する。
さらに、この測定を、効率的な計算オーバーヘッドを伴うマルチクラス属性ケースを扱うように拡張する。
第2のコンポーネントは正規化損失であり、パラメータ空間の正規化よりも効率的にレコメンデーション性能を維持する関数空間の測定を探索する。
確率勾配降下アルゴリズムを用いて、提案した損失を最適化する。
4つの実世界のデータセットに対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Leveraging Skills from Unlabeled Prior Data for Efficient Online Exploration [54.8229698058649]
本研究では,未ラベルの事前軌跡データを用いて効率的な探索戦略を学習する方法について検討する。
我々の手法 SUPE (Skills from Unlabeled Prior Data for Exploration) は、これらのアイデアの慎重な組み合わせがそれらの利点を兼ね備えていることを示す。
実験により,SUPEが従来の戦略を確実に上回り,長い水平・スパース・リワードタスクの一組の解決に成功したことを実証的に示す。
論文 参考訳(メタデータ) (2024-10-23T17:58:45Z) - Towards Robust and Cost-Efficient Knowledge Unlearning for Large Language Models [25.91643745340183]
大規模言語モデル(LLM)は、大量のテキストコーパスの事前学習を通じて、強い推論と記憶能力を示す。
これはプライバシーと著作権侵害のリスクを生じさせ、効率的な機械学習手法の必要性を強調している。
LLMのための堅牢で効率的なアンラーニングのための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-13T04:18:32Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Debiased Learning for Remote Sensing Data [29.794246747637104]
本稿では,リモートセンシングデータに特化して,高度に効率的な半教師付きアプローチを提案する。
まず、このドメインに適した堅牢で弱い拡張を設計し、FixMatchフレームワークをリモートセンシングデータに適用する。
第2に,本モデルにより予測される実際のラベルと擬似ラベルの両方から得られる不均衡学習データのバイアスを除去し,効果的な半教師付き学習手法を開発する。
論文 参考訳(メタデータ) (2023-12-24T03:33:30Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。