論文の概要: Membership Inference Attacks Against Recommender Systems
- arxiv url: http://arxiv.org/abs/2109.08045v1
- Date: Thu, 16 Sep 2021 15:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 17:35:23.184698
- Title: Membership Inference Attacks Against Recommender Systems
- Title(参考訳): Recommender システムに対するメンバシップ推論攻撃
- Authors: Minxing Zhang, Zhaochun Ren, Zihan Wang, Pengjie Ren, Zhumin Chen,
Pengfei Hu, Yang Zhang
- Abstract要約: 我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
- 参考スコア(独自算出の注目度): 33.66394989281801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, recommender systems have achieved promising performances and become
one of the most widely used web applications. However, recommender systems are
often trained on highly sensitive user data, thus potential data leakage from
recommender systems may lead to severe privacy problems.
In this paper, we make the first attempt on quantifying the privacy leakage
of recommender systems through the lens of membership inference. In contrast
with traditional membership inference against machine learning classifiers, our
attack faces two main differences. First, our attack is on the user-level but
not on the data sample-level. Second, the adversary can only observe the
ordered recommended items from a recommender system instead of prediction
results in the form of posterior probabilities. To address the above
challenges, we propose a novel method by representing users from relevant
items. Moreover, a shadow recommender is established to derive the labeled
training data for training the attack model. Extensive experimental results
show that our attack framework achieves a strong performance. In addition, we
design a defense mechanism to effectively mitigate the membership inference
threat of recommender systems.
- Abstract(参考訳): 近年、レコメンダシステムは有望なパフォーマンスを達成し、最も広く使われているwebアプリケーションの1つとなっている。
しかし、レコメンダシステムはセンシティブなユーザデータに基づいてトレーニングされることが多いため、レコメンダシステムからの潜在的なデータ漏洩は、重大なプライバシ問題を引き起こす可能性がある。
本稿では,会員推論のレンズを用いて,レコメンダシステムのプライバシー漏洩を定量化するための最初の試みを行う。
機械学習分類器に対する従来のメンバーシップ推論とは対照的に、攻撃には2つの大きな違いがある。
まず、当社の攻撃はユーザーレベルですが、データサンプルレベルではありません。
第2に、敵は後確率の形での予測結果ではなく、推奨者システムから指示された推奨項目のみを観察できる。
以上の課題に対処するために,ユーザを関連項目から表現する新しい手法を提案する。
また、シャドーレコメンデータを設けて、アタックモデルをトレーニングするためのラベル付きトレーニングデータを導出する。
広範な実験結果から,攻撃フレームワークは強力な性能を達成できた。
さらに,レコメンダシステムのメンバシップ推論の脅威を効果的に軽減するための防御機構を設計する。
関連論文リスト
- Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - Membership Inference Attacks Against Latent Factor Model [0.0]
推奨項目のリストを取得するには、潜在因子モデルをレコメンダとして使用します。
シャドーレコメンデータは、攻撃モデルに対するラベル付きトレーニングデータを導出するために設定される。
実験データから,攻撃モデルのAUC指数が実データセットMovieLensで0.857に達することを示す。
論文 参考訳(メタデータ) (2022-12-15T08:16:08Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Data Poisoning Attacks to Deep Learning Based Recommender Systems [26.743631067729677]
深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃者選択対象項目が多くのユーザーに推奨されるように推奨システムを操作することです。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
論文 参考訳(メタデータ) (2021-01-07T17:32:56Z) - Knowledge Transfer via Pre-training for Recommendation: A Review and
Prospect [89.91745908462417]
実験による推薦システムに対する事前学習の利点を示す。
事前学習を伴うレコメンデータシステムの今後の研究に向けて,いくつかの将来的な方向性について論じる。
論文 参考訳(メタデータ) (2020-09-19T13:06:27Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。