論文の概要: Data Poisoning Attacks to Deep Learning Based Recommender Systems
- arxiv url: http://arxiv.org/abs/2101.02644v2
- Date: Fri, 8 Jan 2021 12:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:31:25.780028
- Title: Data Poisoning Attacks to Deep Learning Based Recommender Systems
- Title(参考訳): ディープラーニングに基づくレコメンダシステムに対するデータ中毒攻撃
- Authors: Hai Huang, Jiaming Mu, Neil Zhenqiang Gong, Qi Li, Bin Liu, Mingwei Xu
- Abstract要約: 深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃者選択対象項目が多くのユーザーに推奨されるように推奨システムを操作することです。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
- 参考スコア(独自算出の注目度): 26.743631067729677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems play a crucial role in helping users to find their
interested information in various web services such as Amazon, YouTube, and
Google News. Various recommender systems, ranging from neighborhood-based,
association-rule-based, matrix-factorization-based, to deep learning based,
have been developed and deployed in industry. Among them, deep learning based
recommender systems become increasingly popular due to their superior
performance.
In this work, we conduct the first systematic study on data poisoning attacks
to deep learning based recommender systems. An attacker's goal is to manipulate
a recommender system such that the attacker-chosen target items are recommended
to many users. To achieve this goal, our attack injects fake users with
carefully crafted ratings to a recommender system. Specifically, we formulate
our attack as an optimization problem, such that the injected ratings would
maximize the number of normal users to whom the target items are recommended.
However, it is challenging to solve the optimization problem because it is a
non-convex integer programming problem. To address the challenge, we develop
multiple techniques to approximately solve the optimization problem. Our
experimental results on three real-world datasets, including small and large
datasets, show that our attack is effective and outperforms existing attacks.
Moreover, we attempt to detect fake users via statistical analysis of the
rating patterns of normal and fake users. Our results show that our attack is
still effective and outperforms existing attacks even if such a detector is
deployed.
- Abstract(参考訳): Recommenderシステムは、ユーザーが興味のある情報をAmazon、YouTube、Google Newsなどの様々なウェブサービスで見つけるのを助けるために重要な役割を果たす。
地域ベース,アソシエーションルールベース,マトリックスファクトリゼーションベースからディープラーニングベースまで,さまざまなレコメンデーションシステムが開発され,産業に展開されている。
中でもディープラーニングベースのレコメンデータシステムは,優れたパフォーマンスのために人気が高まっている。
本研究では,深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃対象のアイテムが多くのユーザに推奨されるようなレコメンデーションシステムを操作することである。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
具体的には,対象アイテムが推奨される正規ユーザ数を最大化するような最適化問題として攻撃を定式化する。
しかし,非凸整数計画問題であるため,最適化問題を解くことは困難である。
この課題に対処するために,最適化問題を概ね解決するための複数の手法を考案する。
実世界の3つのデータセット(小さなデータセットと大きなデータセットを含む)の実験結果は、我々の攻撃が効果的であり、既存の攻撃よりも優れています。
さらに,正規ユーザと偽ユーザのレーティングパターンを統計的に解析し,偽ユーザの検出を試みる。
その結果,検出装置が配備された場合でも,攻撃は有効であり,既存の攻撃よりも優れることがわかった。
関連論文リスト
- Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - Preference Poisoning Attacks on Reward Model Learning [49.806139447922526]
攻撃者は、目標とする結果の促進または復号化を目標として、好み比較の小さなサブセットを反転させることができることを示す。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
我々はまた、他の種類の毒殺攻撃に対する最先端の防御策が、少なくとも我々の環境では有効性に制限されていることも示している。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - PORE: Provably Robust Recommender Systems against Data Poisoning Attacks [58.26750515059222]
実証可能な堅牢なレコメンデータシステムを構築する最初のフレームワークであるPOREを提案する。
POREは、既存のレコメンデータシステムを、ターゲットのないデータ中毒攻撃に対して確実に堅牢に変換することができる。
POREは、データ中毒攻撃を受けたユーザに対して、少なくとも$N$アイテムの$r$を推奨していることを証明しています。
論文 参考訳(メタデータ) (2023-03-26T01:38:11Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Revisiting Adversarially Learned Injection Attacks Against Recommender
Systems [6.920518936054493]
本稿では,逆学習型インジェクションアタック問題を再考する。
我々は、最適化問題として偽ユーザーを生成するための正確な解決策が、はるかに大きな影響をもたらすことを示している。
論文 参考訳(メタデータ) (2020-08-11T17:30:02Z) - Influence Function based Data Poisoning Attacks to Top-N Recommender
Systems [43.14766256772]
攻撃者はリコメンデータシステムを騙して、ターゲットアイテムをできるだけ多くの一般ユーザーに推奨することができる。
我々はこの問題を解決するためにデータ中毒攻撃を開発する。
以上の結果から,我々の攻撃は有効であり,既存手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-02-19T06:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。