論文の概要: Community Detection Attack against Collaborative Learning-based
Recommender Systems
- arxiv url: http://arxiv.org/abs/2306.08929v1
- Date: Thu, 15 Jun 2023 08:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:04:31.589850
- Title: Community Detection Attack against Collaborative Learning-based
Recommender Systems
- Title(参考訳): 協調学習型レコメンダシステムに対するコミュニティ検出攻撃
- Authors: Yacine Belal, Sonia Ben Mokhtar, Mohamed Maouche and Anthony
Simonet-Boulogne
- Abstract要約: フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習に基づく推薦システムが登場した。
最近の研究では、協調学習は様々なプライバシー攻撃に弱いことが示されている。
- 参考スコア(独自算出の注目度): 0.9367224590861915
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative-learning based recommender systems emerged following the
success of collaborative learning techniques such as Federated Learning (FL)
and Gossip Learning (GL). In these systems, users participate in the training
of a recommender system while keeping their history of consumed items on their
devices. While these solutions seemed appealing for preserving the privacy of
the participants at a first glance, recent studies have shown that
collaborative learning can be vulnerable to a variety of privacy attacks. In
this paper we propose a novel privacy attack called Community Detection Attack
(CDA), which allows an adversary to discover the members of a community based
on a set of items of her choice (e.g., discovering users interested in LGBT
content). Through experiments on three real recommendation datasets and by
using two state-of-the-art recommendation models, we assess the sensitivity of
an FL-based recommender system as well as two flavors of Gossip Learning-based
recommender systems to CDA. Results show that on all models and all datasets,
the FL setting is more vulnerable to CDA than Gossip settings. We further
evaluated two off-the-shelf mitigation strategies, namely differential privacy
(DP) and a share less policy, which consists in sharing a subset of model
parameters. Results show a better privacy-utility trade-off for the share less
policy compared to DP especially in the Gossip setting.
- Abstract(参考訳): 協調学習に基づくレコメンダシステムは、連合学習(fl)やゴシップ学習(gl)といった協調学習技術の成功に続いて登場した。
これらのシステムでは、ユーザはデバイス上で消費されたアイテムの履歴を保持しながらレコメンデーションシステムのトレーニングに参加します。
これらのソリューションは、一見すると参加者のプライバシーを守るために魅力的に思えるが、最近の研究では、協調学習はさまざまなプライバシー攻撃に対して脆弱であることが示されている。
本稿では,コミュニティ検出攻撃(Community Detection Attack, CDA)と呼ばれる新たなプライバシ攻撃を提案する。
3つの実際のレコメンデーションデータセットと2つの最先端レコメンデーションモデルを用いた実験を通じて、flベースのレコメンデーションシステムの感度と、cdaへのゴシップ学習に基づくレコメンデーションシステムの2つのフレーバーを評価する。
結果は、すべてのモデルとすべてのデータセットにおいて、FL設定がGossip設定よりもCDAに対して脆弱であることを示している。
さらに、モデルパラメーターのサブセットを共有することで、ディファレンシャルプライバシ(DP)とシェア少ないポリシーの2つのオフザシェルフ緩和戦略を評価した。
その結果、特にGossipの設定では、DPに比べて、シェアのポリシーがより少ないため、プライバシーとユーティリティのトレードオフが改善されている。
関連論文リスト
- A Survey of What to Share in Federated Learning: Perspectives on Model
Utility, Privacy Leakage, and Communication Efficiency [13.92252755884596]
フェデレートラーニング(FL)は、クライアント間の協調トレーニングのための安全なパラダイムとして登場した。
本稿では, モデル, 合成データ, 知識をそれぞれ共有する3つの共有手法を用いて, FL法の新しい分類法を提案する。
論文 参考訳(メタデータ) (2023-07-20T07:35:42Z) - Semi-decentralized Federated Ego Graph Learning for Recommendation [58.21409625065663]
デバイス上でのレコメンデーションのための半分散型フェデレーションエゴグラフ学習フレームワークであるSemiDFEGLを提案する。
提案するフレームワークはモデルに依存しないため、既存のグラフニューラルネットワークベースのレコメンデーションメソッドやプライバシ保護技術とシームレスに統合できる。
論文 参考訳(メタデータ) (2023-02-10T03:57:45Z) - A Survey on Federated Recommendation Systems [40.46436329232597]
ユーザプライバシを保護するためのレコメンデーションシステムにフェデレーション学習が適用されている。
フェデレートされた学習設定では、レコメンデーションシステムは、実際のユーザデータの代わりに中間パラメータのみを収集するレコメンデーションモデルを訓練することができる。
論文 参考訳(メタデータ) (2022-12-27T08:09:45Z) - PEPPER: Empowering User-Centric Recommender Systems over Gossip Learning [0.0]
PEPPERは、ゴシップ学習原則に基づく分散型レコメンデーションシステムである。
私たちのソリューションは、他の分散ソリューションよりも最大42%高速に収束します。
論文 参考訳(メタデータ) (2022-08-09T14:51:27Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。