論文の概要: Community Detection Attack against Collaborative Learning-based
Recommender Systems
- arxiv url: http://arxiv.org/abs/2306.08929v1
- Date: Thu, 15 Jun 2023 08:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:04:31.589850
- Title: Community Detection Attack against Collaborative Learning-based
Recommender Systems
- Title(参考訳): 協調学習型レコメンダシステムに対するコミュニティ検出攻撃
- Authors: Yacine Belal, Sonia Ben Mokhtar, Mohamed Maouche and Anthony
Simonet-Boulogne
- Abstract要約: フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習に基づく推薦システムが登場した。
最近の研究では、協調学習は様々なプライバシー攻撃に弱いことが示されている。
- 参考スコア(独自算出の注目度): 0.9367224590861915
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative-learning based recommender systems emerged following the
success of collaborative learning techniques such as Federated Learning (FL)
and Gossip Learning (GL). In these systems, users participate in the training
of a recommender system while keeping their history of consumed items on their
devices. While these solutions seemed appealing for preserving the privacy of
the participants at a first glance, recent studies have shown that
collaborative learning can be vulnerable to a variety of privacy attacks. In
this paper we propose a novel privacy attack called Community Detection Attack
(CDA), which allows an adversary to discover the members of a community based
on a set of items of her choice (e.g., discovering users interested in LGBT
content). Through experiments on three real recommendation datasets and by
using two state-of-the-art recommendation models, we assess the sensitivity of
an FL-based recommender system as well as two flavors of Gossip Learning-based
recommender systems to CDA. Results show that on all models and all datasets,
the FL setting is more vulnerable to CDA than Gossip settings. We further
evaluated two off-the-shelf mitigation strategies, namely differential privacy
(DP) and a share less policy, which consists in sharing a subset of model
parameters. Results show a better privacy-utility trade-off for the share less
policy compared to DP especially in the Gossip setting.
- Abstract(参考訳): 協調学習に基づくレコメンダシステムは、連合学習(fl)やゴシップ学習(gl)といった協調学習技術の成功に続いて登場した。
これらのシステムでは、ユーザはデバイス上で消費されたアイテムの履歴を保持しながらレコメンデーションシステムのトレーニングに参加します。
これらのソリューションは、一見すると参加者のプライバシーを守るために魅力的に思えるが、最近の研究では、協調学習はさまざまなプライバシー攻撃に対して脆弱であることが示されている。
本稿では,コミュニティ検出攻撃(Community Detection Attack, CDA)と呼ばれる新たなプライバシ攻撃を提案する。
3つの実際のレコメンデーションデータセットと2つの最先端レコメンデーションモデルを用いた実験を通じて、flベースのレコメンデーションシステムの感度と、cdaへのゴシップ学習に基づくレコメンデーションシステムの2つのフレーバーを評価する。
結果は、すべてのモデルとすべてのデータセットにおいて、FL設定がGossip設定よりもCDAに対して脆弱であることを示している。
さらに、モデルパラメーターのサブセットを共有することで、ディファレンシャルプライバシ(DP)とシェア少ないポリシーの2つのオフザシェルフ緩和戦略を評価した。
その結果、特にGossipの設定では、DPに比べて、シェアのポリシーがより少ないため、プライバシーとユーティリティのトレードオフが改善されている。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - FedSlate:A Federated Deep Reinforcement Learning Recommender System [18.641244204682536]
推薦システムにおける長期ユーザエンゲージメントの最適化に強化学習法が用いられている。
潜在的な解決策の1つは、さまざまなプラットフォームから集中した場所にデータを集約し、集約されたデータをトレーニングに使用することである。
このアプローチは、通信コストの増加やユーザプライバシに対する潜在的な脅威など、経済的および法的懸念を提起する。
法的なレベルでの共有が禁止されている情報を効果的に活用する強化学習推薦アルゴリズムである textbfFedSlate を提案する。
論文 参考訳(メタデータ) (2024-09-23T10:10:24Z) - CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence [55.21518669075263]
CURE4Recは、レコメンデーションアンラーニング評価のための最初の包括的なベンチマークである。
さまざまな影響レベルのデータに対する推薦公正性と堅牢性に対するアンラーニングの影響について検討する。
論文 参考訳(メタデータ) (2024-08-26T16:21:50Z) - Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - A Survey on Federated Recommendation Systems [40.46436329232597]
ユーザプライバシを保護するためのレコメンデーションシステムにフェデレーション学習が適用されている。
フェデレートされた学習設定では、レコメンデーションシステムは、実際のユーザデータの代わりに中間パラメータのみを収集するレコメンデーションモデルを訓練することができる。
論文 参考訳(メタデータ) (2022-12-27T08:09:45Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。