論文の概要: PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion
- arxiv url: http://arxiv.org/abs/2110.10926v1
- Date: Thu, 21 Oct 2021 06:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:30:19.879138
- Title: PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion
- Title(参考訳): PipAttack: アイテムプロモーションのためのフェデレーションレコメンダシステム
- Authors: Shijie Zhang and Hongzhi Yin and Tong Chen and Zi Huang and Quoc Viet
Hung Nguyen and Lizhen Cui
- Abstract要約: 一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
- 参考スコア(独自算出の注目度): 58.870444954499014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the growing privacy concerns, decentralization emerges rapidly in
personalized services, especially recommendation. Also, recent studies have
shown that centralized models are vulnerable to poisoning attacks, compromising
their integrity. In the context of recommender systems, a typical goal of such
poisoning attacks is to promote the adversary's target items by interfering
with the training dataset and/or process. Hence, a common practice is to
subsume recommender systems under the decentralized federated learning
paradigm, which enables all user devices to collaboratively learn a global
recommender while retaining all the sensitive data locally. Without exposing
the full knowledge of the recommender and entire dataset to end-users, such
federated recommendation is widely regarded `safe' towards poisoning attacks.
In this paper, we present a systematic approach to backdooring federated
recommender systems for targeted item promotion. The core tactic is to take
advantage of the inherent popularity bias that commonly exists in data-driven
recommenders. As popular items are more likely to appear in the recommendation
list, our innovatively designed attack model enables the target item to have
the characteristics of popular items in the embedding space. Then, by uploading
carefully crafted gradients via a small number of malicious users during the
model update, we can effectively increase the exposure rate of a target
(unpopular) item in the resulted federated recommender. Evaluations on two
real-world datasets show that 1) our attack model significantly boosts the
exposure rate of the target item in a stealthy way, without harming the
accuracy of the poisoned recommender; and 2) existing defenses are not
effective enough, highlighting the need for new defenses against our local
model poisoning attacks to federated recommender systems.
- Abstract(参考訳): プライバシーの懸念が高まっているため、分散化はパーソナライズされたサービス、特にレコメンデーションに急速に現れる。
また、近年の研究では、集中型モデルは毒殺攻撃に対して脆弱であり、その整合性を損なうことが示されている。
推薦システムの文脈では、このような中毒攻撃の典型的な目標は、トレーニングデータセットや/またはプロセスに干渉することによって敵のターゲットアイテムを促進することである。
これにより、すべてのユーザデバイスが、すべての機密データをローカルに保持しながら、グローバルなレコメンダを共同学習することが可能になる。
エンドユーザにレコメンデータとデータセット全体の知識を公開せずに、このようなフェデレートされたレコメンデーションは、攻撃に対する‘安全’と広く見なされている。
そこで本稿では,対象商品の促進を目的としたフェデレーションレコメンデータシステムへの体系的アプローチを提案する。
中心的な戦略は、データ駆動型レコメンダに共通に存在する固有の人気バイアスを活用することである。
人気アイテムはレコメンデーションリストに表示されやすいため、我々の革新的なデザインのアタックモデルは、ターゲットアイテムに埋め込みスペースにおける人気アイテムの特徴を持たせることができる。
そして、モデル更新中に少数の悪意のあるユーザを通じて慎重に作成した勾配をアップロードすることで、結果のフェデレーションレコメンデータ内のターゲット(不人気)項目の露出率を効果的に増加させることができる。
2つの実世界のデータセットによる評価
1) 攻撃モデルは, 毒殺勧告者の精度を損なうことなく, ターゲット項目の被曝率をステルス的に著しく向上させる。
2)既存の防御は十分に効果的ではなく,フェデレーションドレコメンダシステムに対するローカルモデル中毒攻撃に対する新たな防御の必要性を浮き彫りにしている。
関連論文リスト
- Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Preference Poisoning Attacks on Reward Model Learning [49.806139447922526]
攻撃者は、目標とする結果の促進または復号化を目標として、好み比較の小さなサブセットを反転させることができることを示す。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
我々はまた、他の種類の毒殺攻撃に対する最先端の防御策が、少なくとも我々の環境では有効性に制限されていることも示している。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - PORE: Provably Robust Recommender Systems against Data Poisoning Attacks [58.26750515059222]
実証可能な堅牢なレコメンデータシステムを構築する最初のフレームワークであるPOREを提案する。
POREは、既存のレコメンデータシステムを、ターゲットのないデータ中毒攻撃に対して確実に堅牢に変換することができる。
POREは、データ中毒攻撃を受けたユーザに対して、少なくとも$N$アイテムの$r$を推奨していることを証明しています。
論文 参考訳(メタデータ) (2023-03-26T01:38:11Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Data Poisoning Attacks to Deep Learning Based Recommender Systems [26.743631067729677]
深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃者選択対象項目が多くのユーザーに推奨されるように推奨システムを操作することです。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
論文 参考訳(メタデータ) (2021-01-07T17:32:56Z) - A Black-Box Attack Model for Visually-Aware Recommender Systems [7.226144684379191]
視覚認識レコメンデータシステム(RS)は近年,研究の関心が高まっている。
本研究では,外部ソースに依存したRSを攻撃に対して脆弱にすることができることを示す。
ブラックボックスアプローチでは,新たなビジュアルアタックモデルがアイテムのスコアやランキングに効果的に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-11-05T08:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。