論文の概要: On the resilience of Collaborative Learning-based Recommender Systems Against Community Detection Attack
- arxiv url: http://arxiv.org/abs/2306.08929v2
- Date: Mon, 25 Mar 2024 08:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:38:04.901588
- Title: On the resilience of Collaborative Learning-based Recommender Systems Against Community Detection Attack
- Title(参考訳): コミュニティ検出攻撃に対する協調学習型レコメンダシステムのレジリエンスについて
- Authors: Yacine Belal, Sonia Ben Mokhtar, Mohamed Maouche, Anthony Simonet-Boulogne,
- Abstract要約: フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習技術の成功により、協調学習に基づく推薦システムが登場した。
これらのシステムでは、ユーザはデバイス上で消費されたアイテムの履歴を維持しながらレコメンデーションシステムのトレーニングに参加します。
最近の研究で、協調学習は様々なプライバシー攻撃に弱いことが判明している。
- 参考スコア(独自算出の注目度): 1.9093042949944972
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative-learning-based recommender systems emerged following the success of collaborative learning techniques such as Federated Learning (FL) and Gossip Learning (GL). In these systems, users participate in the training of a recommender system while maintaining their history of consumed items on their devices. While these solutions seemed appealing for preserving the privacy of the participants at first glance, recent studies have revealed that collaborative learning can be vulnerable to various privacy attacks. In this paper, we study the resilience of collaborative learning-based recommender systems against a novel privacy attack called Community Detection Attack (CDA). This attack enables an adversary to identify community members based on a chosen set of items (eg., identifying users interested in specific points-of-interest). Through experiments on three real recommendation datasets using two state-of-the-art recommendation models, we evaluate the sensitivity of an FL-based recommender system as well as two flavors of Gossip Learning-based recommender systems to CDA. The results show that across all models and datasets, the FL setting is more vulnerable to CDA compared to Gossip settings. Furthermore, we assess two off-the-shelf mitigation strategies, namely differential privacy (DP) and a \emph{Share less} policy, which consists of sharing a subset of less sensitive model parameters. The findings indicate a more favorable privacy-utility trade-off for the \emph{Share less} strategy, particularly in FedRecs.
- Abstract(参考訳): 協調学習に基づく推薦システムは、フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習技術の成功にともなって登場した。
これらのシステムでは、ユーザはデバイス上で消費されたアイテムの履歴を維持しながらレコメンデーションシステムのトレーニングに参加します。
これらのソリューションは、参加者のプライバシーを一見して守ることに魅力があるように思えるが、最近の研究で、協調学習はさまざまなプライバシー攻撃に対して脆弱であることが判明した。
本稿では,コミュニティ検出攻撃(CDA)と呼ばれる新たなプライバシ攻撃に対する協調学習に基づく推薦システムのレジリエンスについて検討する。
この攻撃により、敵は選択したアイテム(例えば、特定のポイントに興味のあるユーザーを識別する)に基づいて、コミュニティメンバーを識別することができる。
2つの最先端レコメンデーションモデルを用いた3つの実際のレコメンデーションデータセットの実験を通じて、FLベースのレコメンデーションシステムの感度と、2種類のゴシップ学習ベースのレコメンデーションシステムのCDAに対する感度を評価する。
その結果、すべてのモデルとデータセットにおいて、FL設定はGossip設定よりもCDAに対して脆弱であることがわかった。
さらに、より敏感なモデルパラメータのサブセットを共有することで、ディファレンシャルプライバシ (DP) と \emph{Share less} ポリシーの2つのオフ・ザ・シェルフ緩和戦略を評価する。
この結果は、特にFedRecsにおいて、emph{Share less}戦略に対するより好ましいプライバシーユーティリティトレードオフを示している。
関連論文リスト
- A Survey on Federated Recommendation Systems [40.46436329232597]
ユーザプライバシを保護するためのレコメンデーションシステムにフェデレーション学習が適用されている。
フェデレートされた学習設定では、レコメンデーションシステムは、実際のユーザデータの代わりに中間パラメータのみを収集するレコメンデーションモデルを訓練することができる。
論文 参考訳(メタデータ) (2022-12-27T08:09:45Z) - Adversarial Training with Complementary Labels: On the Benefit of
Gradually Informative Attacks [119.38992029332883]
不完全な監督を伴う敵の訓練は重要であるが、注意は限られている。
我々は、徐々に情報的攻撃を用いた新しい学習戦略を提案する。
提案手法の有効性を,ベンチマークデータセットを用いて実証する実験を行った。
論文 参考訳(メタデータ) (2022-11-01T04:26:45Z) - PEPPER: Empowering User-Centric Recommender Systems over Gossip Learning [0.0]
PEPPERは、ゴシップ学習原則に基づく分散型レコメンデーションシステムである。
私たちのソリューションは、他の分散ソリューションよりも最大42%高速に収束します。
論文 参考訳(メタデータ) (2022-08-09T14:51:27Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。