論文の概要: PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion
- arxiv url: http://arxiv.org/abs/2110.10926v1
- Date: Thu, 21 Oct 2021 06:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:30:19.879138
- Title: PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion
- Title(参考訳): PipAttack: アイテムプロモーションのためのフェデレーションレコメンダシステム
- Authors: Shijie Zhang and Hongzhi Yin and Tong Chen and Zi Huang and Quoc Viet
Hung Nguyen and Lizhen Cui
- Abstract要約: 一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
- 参考スコア(独自算出の注目度): 58.870444954499014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the growing privacy concerns, decentralization emerges rapidly in
personalized services, especially recommendation. Also, recent studies have
shown that centralized models are vulnerable to poisoning attacks, compromising
their integrity. In the context of recommender systems, a typical goal of such
poisoning attacks is to promote the adversary's target items by interfering
with the training dataset and/or process. Hence, a common practice is to
subsume recommender systems under the decentralized federated learning
paradigm, which enables all user devices to collaboratively learn a global
recommender while retaining all the sensitive data locally. Without exposing
the full knowledge of the recommender and entire dataset to end-users, such
federated recommendation is widely regarded `safe' towards poisoning attacks.
In this paper, we present a systematic approach to backdooring federated
recommender systems for targeted item promotion. The core tactic is to take
advantage of the inherent popularity bias that commonly exists in data-driven
recommenders. As popular items are more likely to appear in the recommendation
list, our innovatively designed attack model enables the target item to have
the characteristics of popular items in the embedding space. Then, by uploading
carefully crafted gradients via a small number of malicious users during the
model update, we can effectively increase the exposure rate of a target
(unpopular) item in the resulted federated recommender. Evaluations on two
real-world datasets show that 1) our attack model significantly boosts the
exposure rate of the target item in a stealthy way, without harming the
accuracy of the poisoned recommender; and 2) existing defenses are not
effective enough, highlighting the need for new defenses against our local
model poisoning attacks to federated recommender systems.
- Abstract(参考訳): プライバシーの懸念が高まっているため、分散化はパーソナライズされたサービス、特にレコメンデーションに急速に現れる。
また、近年の研究では、集中型モデルは毒殺攻撃に対して脆弱であり、その整合性を損なうことが示されている。
推薦システムの文脈では、このような中毒攻撃の典型的な目標は、トレーニングデータセットや/またはプロセスに干渉することによって敵のターゲットアイテムを促進することである。
これにより、すべてのユーザデバイスが、すべての機密データをローカルに保持しながら、グローバルなレコメンダを共同学習することが可能になる。
エンドユーザにレコメンデータとデータセット全体の知識を公開せずに、このようなフェデレートされたレコメンデーションは、攻撃に対する‘安全’と広く見なされている。
そこで本稿では,対象商品の促進を目的としたフェデレーションレコメンデータシステムへの体系的アプローチを提案する。
中心的な戦略は、データ駆動型レコメンダに共通に存在する固有の人気バイアスを活用することである。
人気アイテムはレコメンデーションリストに表示されやすいため、我々の革新的なデザインのアタックモデルは、ターゲットアイテムに埋め込みスペースにおける人気アイテムの特徴を持たせることができる。
そして、モデル更新中に少数の悪意のあるユーザを通じて慎重に作成した勾配をアップロードすることで、結果のフェデレーションレコメンデータ内のターゲット(不人気)項目の露出率を効果的に増加させることができる。
2つの実世界のデータセットによる評価
1) 攻撃モデルは, 毒殺勧告者の精度を損なうことなく, ターゲット項目の被曝率をステルス的に著しく向上させる。
2)既存の防御は十分に効果的ではなく,フェデレーションドレコメンダシステムに対するローカルモデル中毒攻撃に対する新たな防御の必要性を浮き彫りにしている。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - Poisoning Decentralized Collaborative Recommender System and Its Countermeasures [37.205493894131635]
我々はPAMN(Adaptive Malicious Neighbors)によるPoisoningという新たな攻撃方法を提案する。
PAMNは、トップKレコメンデーションを攻撃目標とすることで、ターゲットアイテムのランクを複数の敵で効果的に引き上げる。
DecRecsの脆弱性が明らかになったことで、ユーザーレベルの勾配クリッピングとスペーサー付き更新に基づく専用の防御機構が提案されている。
論文 参考訳(メタデータ) (2024-04-01T15:30:02Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。