論文の概要: Membership Inference Attacks Against Latent Factor Model
- arxiv url: http://arxiv.org/abs/2301.03596v1
- Date: Thu, 15 Dec 2022 08:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-15 23:26:00.494653
- Title: Membership Inference Attacks Against Latent Factor Model
- Title(参考訳): 潜在因子モデルに対するメンバーシップ推論攻撃
- Authors: Dazhi Hu
- Abstract要約: 推奨項目のリストを取得するには、潜在因子モデルをレコメンダとして使用します。
シャドーレコメンデータは、攻撃モデルに対するラベル付きトレーニングデータを導出するために設定される。
実験データから,攻撃モデルのAUC指数が実データセットMovieLensで0.857に達することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of the information age has led to the problems of information
overload and unclear demands. As an information filtering system, personalized
recommendation systems predict users' behavior and preference for items and
improves users' information acquisition efficiency. However, recommendation
systems usually use highly sensitive user data for training. In this paper, we
use the latent factor model as the recommender to get the list of recommended
items, and we representing users from relevant items Compared with the
traditional member inference against machine learning classifiers. We construct
a multilayer perceptron model with two hidden layers as the attack model to
complete the member inference. Moreover, a shadow recommender is established to
derive the labeled training data for the attack model. The attack model is
trained on the dataset generated by the shadow recommender and tested on the
dataset generated by the target recommender. The experimental data show that
the AUC index of our attack model can reach 0.857 on the real dataset
MovieLens, which shows that the attack model has good performance.
- Abstract(参考訳): 情報時代の到来は、情報の過負荷と不明確な要求の問題を招いている。
情報フィルタリングシステムとして、パーソナライズドレコメンデーションシステムは、アイテムに対するユーザの行動や好みを予測し、ユーザの情報取得効率を向上させる。
しかし、レコメンデーションシステムは訓練に非常に敏感なユーザーデータを使用する。
本稿では,推奨項目のリストを取得するためのレコメンダとして潜在因子モデルを用い,機械学習分類器に対する従来のメンバ推論と比較して,関連する項目からユーザを表現する。
攻撃モデルとして2つの隠蔽層を持つ多層パーセプトロンモデルを構築し,メンバー推論を完成させる。
さらに、shadow recommenderを確立して、攻撃モデルのラベル付きトレーニングデータを導出する。
攻撃モデルはshadow recommenderが生成したデータセットでトレーニングされ、ターゲット recommenderが生成したデータセット上でテストされる。
実験データから,本攻撃モデルのauc指標は実データセットでは0.857に達し,攻撃モデルの性能が良好であることが判明した。
関連論文リスト
- Alpaca against Vicuna: Using LLMs to Uncover Memorization of LLMs [61.04246774006429]
本稿では,攻撃者によるLSMエージェントを用いたブラックボックスプロンプト最適化手法を提案する。
ベースラインプレフィックス・サフィックス測定と比較すると,命令ベースのプロンプトは,トレーニングデータと23.7%のオーバラップで出力を生成する。
以上の結果から,命令調整モデルでは,ベースモデルと同等に事前学習データを公開することが可能であり,他のLSMが提案する命令を用いることで,新たな自動攻撃の道を開くことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T19:32:01Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - MetaSelector: Meta-Learning for Recommendation with User-Level Adaptive
Model Selection [110.87712780017819]
推薦システムにおけるユーザレベルの適応モデル選択を容易にするメタラーニングフレームワークを提案する。
2つのパブリックデータセットと実世界のプロダクションデータセットで実験を行います。
論文 参考訳(メタデータ) (2020-01-22T16:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。