論文の概要: Inferring Communities of Interest in Collaborative Learning-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2306.08929v3
- Date: Tue, 15 Apr 2025 10:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:08:28.076322
- Title: Inferring Communities of Interest in Collaborative Learning-based Recommender Systems
- Title(参考訳): 協調学習に基づくレコメンダシステムにおける関心のコミュニティの推測
- Authors: Yacine Belal, Sonia Ben Mokhtar, Mohamed Maouche, Anthony Simonet-Boulogne,
- Abstract要約: 協調学習ベースのレコメンデーションシステムは、ユーザーが好みのアイテムの履歴をデバイスに保持しながらモデルをトレーニングすることを可能にする。
最近の研究では、協調学習は様々なプライバシー攻撃に弱いことが示されている。
本稿では,コミュニティ・推論・アタック(CIA)と呼ばれる新たな攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 1.9093042949944972
- License:
- Abstract: Collaborative-learning-based recommender systems, such as those employing Federated Learning (FL) and Gossip Learning (GL), allow users to train models while keeping their history of liked items on their devices. While these methods were seen as promising for enhancing privacy, recent research has shown that collaborative learning can be vulnerable to various privacy attacks. In this paper, we propose a novel attack called Community Inference Attack (CIA), which enables an adversary to identify community members based on a set of target items. What sets CIA apart is its efficiency: it operates at low computational cost by eliminating the need for training surrogate models. Instead, it uses a comparison-based approach, inferring sensitive information by comparing users' models rather than targeting any specific individual model. To evaluate the effectiveness of CIA, we conduct experiments on three real-world recommendation datasets using two recommendation models under both Federated and Gossip-like settings. The results demonstrate that CIA can be up to 10 times more accurate than random guessing. Additionally, we evaluate two mitigation strategies: Differentially Private Stochastic Gradient Descent (DP-SGD) and a Share less policy, which involves sharing fewer, less sensitive model parameters. Our findings suggest that the Share less strategy offers a better privacy-utility trade-off, especially in GL.
- Abstract(参考訳): フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習ベースのレコメンデーターシステムは、ユーザが好きなアイテムの履歴をデバイスに保持しながらモデルをトレーニングすることができる。
これらの手法はプライバシーの強化に有望だと考えられてきたが、最近の研究で、協調学習は様々なプライバシー攻撃に対して脆弱であることが示されている。
本稿では,コミュニティ推論攻撃(Community Inference Attack, CIA)と呼ばれる新たな攻撃手法を提案する。
CIAは、サロゲートモデルをトレーニングする必要をなくし、低計算コストで運用する。
その代わりに、特定の個別モデルではなく、ユーザーのモデルを比較することで、機密情報を推測する比較ベースのアプローチを使用する。
CIAの有効性を評価するため,FederatedとGossipのような2つのレコメンデーションモデルを用いて,実世界のレコメンデーションデータセットを3つ実験した。
その結果、CIAはランダムな推測の最大10倍の精度を持つことが示された。
さらに,2つの緩和策として,DP-SGDと,より少ない感度のモデルパラメータの共有を含む共有最小化策について検討した。
われわれの調査結果によると、Shareの戦略は、特にGLにおいて、プライバシーとユーティリティのトレードオフを改善できる。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - FedSlate:A Federated Deep Reinforcement Learning Recommender System [18.641244204682536]
推薦システムにおける長期ユーザエンゲージメントの最適化に強化学習法が用いられている。
潜在的な解決策の1つは、さまざまなプラットフォームから集中した場所にデータを集約し、集約されたデータをトレーニングに使用することである。
このアプローチは、通信コストの増加やユーザプライバシに対する潜在的な脅威など、経済的および法的懸念を提起する。
法的なレベルでの共有が禁止されている情報を効果的に活用する強化学習推薦アルゴリズムである textbfFedSlate を提案する。
論文 参考訳(メタデータ) (2024-09-23T10:10:24Z) - CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence [55.21518669075263]
CURE4Recは、レコメンデーションアンラーニング評価のための最初の包括的なベンチマークである。
さまざまな影響レベルのデータに対する推薦公正性と堅牢性に対するアンラーニングの影響について検討する。
論文 参考訳(メタデータ) (2024-08-26T16:21:50Z) - Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - A Survey on Federated Recommendation Systems [40.46436329232597]
ユーザプライバシを保護するためのレコメンデーションシステムにフェデレーション学習が適用されている。
フェデレートされた学習設定では、レコメンデーションシステムは、実際のユーザデータの代わりに中間パラメータのみを収集するレコメンデーションモデルを訓練することができる。
論文 参考訳(メタデータ) (2022-12-27T08:09:45Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。