論文の概要: Poisoning Federated Recommender Systems with Fake Users
- arxiv url: http://arxiv.org/abs/2402.11637v1
- Date: Sun, 18 Feb 2024 16:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 19:55:42.564645
- Title: Poisoning Federated Recommender Systems with Fake Users
- Title(参考訳): フェイクユーザによるフェデレーションレコメンダシステム
- Authors: Ming Yin, Yichang Xu, Minghong Fang, and Neil Zhenqiang Gong
- Abstract要約: フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
- 参考スコア(独自算出の注目度): 48.70867241987739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommendation is a prominent use case within federated learning,
yet it remains susceptible to various attacks, from user to server-side
vulnerabilities. Poisoning attacks are particularly notable among user-side
attacks, as participants upload malicious model updates to deceive the global
model, often intending to promote or demote specific targeted items. This study
investigates strategies for executing promotion attacks in federated
recommender systems.
Current poisoning attacks on federated recommender systems often rely on
additional information, such as the local training data of genuine users or
item popularity. However, such information is challenging for the potential
attacker to obtain. Thus, there is a need to develop an attack that requires no
extra information apart from item embeddings obtained from the server. In this
paper, we introduce a novel fake user based poisoning attack named PoisonFRS to
promote the attacker-chosen targeted item in federated recommender systems
without requiring knowledge about user-item rating data, user attributes, or
the aggregation rule used by the server. Extensive experiments on multiple
real-world datasets demonstrate that PoisonFRS can effectively promote the
attacker-chosen targeted item to a large portion of genuine users and
outperform current benchmarks that rely on additional information about the
system. We further observe that the model updates from both genuine and fake
users are indistinguishable within the latent space.
- Abstract(参考訳): フェデレーションレコメンデーション(federated recommendation)は、フェデレーション学習における重要なユースケースだが、ユーザからサーバ側の脆弱性など、さまざまな攻撃に影響を受けやすい。
毒殺攻撃は、参加者が悪質なモデルアップデートをアップロードしてグローバルモデルを欺き、特定のターゲットアイテムの宣伝や取り下げを意図しているため、ユーザー側の攻撃で特に顕著である。
本研究では,フェデレーションレコメンデータシステムにおけるプロモーションアタック実行戦略について検討する。
フェデレートされたレコメンダシステムに対する現在の中毒攻撃は、実際のユーザやアイテムの人気に関するローカルトレーニングデータなどの追加情報に依存することが多い。
しかし、そのような情報は潜在的な攻撃者が得るのに困難である。
したがって、サーバから取得したアイテムの埋め込み以外に余分な情報を必要としない攻撃を開発する必要がある。
本稿では,ユーザ評価データやユーザ属性,サーバが使用するアグリゲーションルールなどの知識を必要とせずに,フェデレーションレコメンデータシステムにおいて,攻撃対象の項目をプロモートするための,新たな偽ユーザベース中毒攻撃であるPoisonFRSを導入する。
複数の実世界のデータセットに対する大規模な実験により、PoisonFRSは攻撃対象のアイテムを真のユーザの大部分に効果的にプロモートし、システムに関する追加情報に依存する現在のベンチマークを上回ります。
さらに,実際のユーザと偽ユーザの両方によるモデル更新は,潜在領域では区別がつかないことも確認した。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - PORE: Provably Robust Recommender Systems against Data Poisoning Attacks [58.26750515059222]
実証可能な堅牢なレコメンデータシステムを構築する最初のフレームワークであるPOREを提案する。
POREは、既存のレコメンデータシステムを、ターゲットのないデータ中毒攻撃に対して確実に堅牢に変換することができる。
POREは、データ中毒攻撃を受けたユーザに対して、少なくとも$N$アイテムの$r$を推奨していることを証明しています。
論文 参考訳(メタデータ) (2023-03-26T01:38:11Z) - Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning [102.05872020792603]
我々は,他のクライアントの行動を含む,連合学習パイプライン全体の予測と説明を行う攻撃を提案する。
この新たな攻撃は、ランダムにサンプリングされたラウンドのごく一部にアタッカーが貢献する現実的なシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:59:38Z) - Knowledge-enhanced Black-box Attacks for Recommendations [21.914252071143945]
ディープニューラルネットワークベースのレコメンデータシステムは、敵の攻撃に対して脆弱である。
攻撃ポリシーを効果的に学習するための知識グラフ強化ブラックボックス攻撃フレームワーク(KGAttack)を提案する。
様々な実世界のデータセットに関する総合的な実験は、提案した攻撃フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T04:59:31Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Revisiting Adversarially Learned Injection Attacks Against Recommender
Systems [6.920518936054493]
本稿では,逆学習型インジェクションアタック問題を再考する。
我々は、最適化問題として偽ユーザーを生成するための正確な解決策が、はるかに大きな影響をもたらすことを示している。
論文 参考訳(メタデータ) (2020-08-11T17:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。