論文の概要: Inferring Communities of Interest in Collaborative Learning-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2306.08929v3
- Date: Tue, 15 Apr 2025 10:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-26 10:40:48.048487
- Title: Inferring Communities of Interest in Collaborative Learning-based Recommender Systems
- Title(参考訳): 協調学習に基づくレコメンダシステムにおける関心のコミュニティの推測
- Authors: Yacine Belal, Sonia Ben Mokhtar, Mohamed Maouche, Anthony Simonet-Boulogne,
- Abstract要約: 協調学習ベースのレコメンデーションシステムは、ユーザーが好みのアイテムの履歴をデバイスに保持しながらモデルをトレーニングすることを可能にする。
最近の研究では、協調学習は様々なプライバシー攻撃に弱いことが示されている。
本稿では,コミュニティ・推論・アタック(CIA)と呼ばれる新たな攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 1.9093042949944972
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative-learning-based recommender systems, such as those employing Federated Learning (FL) and Gossip Learning (GL), allow users to train models while keeping their history of liked items on their devices. While these methods were seen as promising for enhancing privacy, recent research has shown that collaborative learning can be vulnerable to various privacy attacks. In this paper, we propose a novel attack called Community Inference Attack (CIA), which enables an adversary to identify community members based on a set of target items. What sets CIA apart is its efficiency: it operates at low computational cost by eliminating the need for training surrogate models. Instead, it uses a comparison-based approach, inferring sensitive information by comparing users' models rather than targeting any specific individual model. To evaluate the effectiveness of CIA, we conduct experiments on three real-world recommendation datasets using two recommendation models under both Federated and Gossip-like settings. The results demonstrate that CIA can be up to 10 times more accurate than random guessing. Additionally, we evaluate two mitigation strategies: Differentially Private Stochastic Gradient Descent (DP-SGD) and a Share less policy, which involves sharing fewer, less sensitive model parameters. Our findings suggest that the Share less strategy offers a better privacy-utility trade-off, especially in GL.
- Abstract(参考訳): フェデレートラーニング(FL)やゴシップラーニング(GL)といった協調学習ベースのレコメンデーターシステムは、ユーザが好きなアイテムの履歴をデバイスに保持しながらモデルをトレーニングすることができる。
これらの手法はプライバシーの強化に有望だと考えられてきたが、最近の研究で、協調学習は様々なプライバシー攻撃に対して脆弱であることが示されている。
本稿では,コミュニティ推論攻撃(Community Inference Attack, CIA)と呼ばれる新たな攻撃手法を提案する。
CIAは、サロゲートモデルをトレーニングする必要をなくし、低計算コストで運用する。
その代わりに、特定の個別モデルではなく、ユーザーのモデルを比較することで、機密情報を推測する比較ベースのアプローチを使用する。
CIAの有効性を評価するため,FederatedとGossipのような2つのレコメンデーションモデルを用いて,実世界のレコメンデーションデータセットを3つ実験した。
その結果、CIAはランダムな推測の最大10倍の精度を持つことが示された。
さらに,2つの緩和策として,DP-SGDと,より少ない感度のモデルパラメータの共有を含む共有最小化策について検討した。
われわれの調査結果によると、Shareの戦略は、特にGLにおいて、プライバシーとユーティリティのトレードオフを改善できる。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - FedSlate:A Federated Deep Reinforcement Learning Recommender System [18.641244204682536]
推薦システムにおける長期ユーザエンゲージメントの最適化に強化学習法が用いられている。
潜在的な解決策の1つは、さまざまなプラットフォームから集中した場所にデータを集約し、集約されたデータをトレーニングに使用することである。
このアプローチは、通信コストの増加やユーザプライバシに対する潜在的な脅威など、経済的および法的懸念を提起する。
法的なレベルでの共有が禁止されている情報を効果的に活用する強化学習推薦アルゴリズムである textbfFedSlate を提案する。
論文 参考訳(メタデータ) (2024-09-23T10:10:24Z) - CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence [55.21518669075263]
CURE4Recは、レコメンデーションアンラーニング評価のための最初の包括的なベンチマークである。
さまざまな影響レベルのデータに対する推薦公正性と堅牢性に対するアンラーニングの影響について検討する。
論文 参考訳(メタデータ) (2024-08-26T16:21:50Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Shadow-Free Membership Inference Attacks: Recommender Systems Are More Vulnerable Than You Thought [43.490918008927]
本稿では,ユーザによる会員推論の推奨を直接活用するシャドウフリーMIAを提案する。
我々の攻撃は、ベースラインよりも偽陽性率の低い攻撃精度をはるかに向上させる。
論文 参考訳(メタデータ) (2024-05-11T13:52:22Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - A Survey on Federated Recommendation Systems [40.46436329232597]
ユーザプライバシを保護するためのレコメンデーションシステムにフェデレーション学習が適用されている。
フェデレートされた学習設定では、レコメンデーションシステムは、実際のユーザデータの代わりに中間パラメータのみを収集するレコメンデーションモデルを訓練することができる。
論文 参考訳(メタデータ) (2022-12-27T08:09:45Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - WAFFLE: Weighted Averaging for Personalized Federated Learning [38.241216472571786]
WAFFLEは、SCAFFOLDに基づくパーソナライズされた協調機械学習アルゴリズムである。
WAFFLEは、クライアントのアップデート間のユークリッド距離を使用して、個々のコントリビューションを計測する。
本実験では, WAFFLE の有効性を他の方法と比較した。
論文 参考訳(メタデータ) (2021-10-13T18:40:54Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Privacy Regularization: Joint Privacy-Utility Optimization in Language
Models [27.389684148671858]
学習言語モデルのための2つのプライバシ保護正規化手法を提案する。
私たちは、有利なユーティリティプライバシトレードオフで正規化の利点を示します。
論文 参考訳(メタデータ) (2021-03-12T23:17:43Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。