論文の概要: Towards Differential Privacy in Sequential Recommendation: A Noisy Graph
Neural Network Approach
- arxiv url: http://arxiv.org/abs/2309.11515v2
- Date: Tue, 30 Jan 2024 03:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 18:50:30.820225
- Title: Towards Differential Privacy in Sequential Recommendation: A Noisy Graph
Neural Network Approach
- Title(参考訳): シークエンシャルレコメンデーションにおける差分プライバシーを目指して:ノイズの多いグラフニューラルネットワークアプローチ
- Authors: Wentao Hu, Hui Fang
- Abstract要約: ディファレンシャルプライバシは、レコメンダシステムにおけるプライバシを保護するために広く採用されている。
既存の微分プライベートなレコメンデータシステムは、静的および独立な相互作用のみを考慮する。
ノイズの多いグラフニューラルネットアプローチを用いて、識別的プライベートシーケンスレコメンデーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.4743508801114444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With increasing frequency of high-profile privacy breaches in various online
platforms, users are becoming more concerned about their privacy. And
recommender system is the core component of online platforms for providing
personalized service, consequently, its privacy preservation has attracted
great attention. As the gold standard of privacy protection, differential
privacy has been widely adopted to preserve privacy in recommender systems.
However, existing differentially private recommender systems only consider
static and independent interactions, so they cannot apply to sequential
recommendation where behaviors are dynamic and dependent. Meanwhile, little
attention has been paid on the privacy risk of sensitive user features, most of
them only protect user feedbacks. In this work, we propose a novel
DIfferentially Private Sequential recommendation framework with a noisy Graph
Neural Network approach (denoted as DIPSGNN) to address these limitations. To
the best of our knowledge, we are the first to achieve differential privacy in
sequential recommendation with dependent interactions. Specifically, in
DIPSGNN, we first leverage piecewise mechanism to protect sensitive user
features. Then, we innovatively add calibrated noise into aggregation step of
graph neural network based on aggregation perturbation mechanism. And this
noisy graph neural network can protect sequentially dependent interactions and
capture user preferences simultaneously. Extensive experiments demonstrate the
superiority of our method over state-of-the-art differentially private
recommender systems in terms of better balance between privacy and accuracy.
- Abstract(参考訳): さまざまなオンラインプラットフォームで高名なプライバシー侵害の頻度が高まる中、ユーザはプライバシに対する懸念が高まっている。
パーソナライズされたサービスを提供するオンラインプラットフォームの中核的なコンポーネントであるレコメンダシステムは、プライバシー保護に大きな注目を集めている。
プライバシ保護の黄金の標準として、ディファレンシャルプライバシはレコメンダシステムにおけるプライバシを保護するために広く採用されている。
しかし、既存の微分プライベートリコメンダシステムは静的相互作用と独立相互作用のみを考慮するため、振る舞いが動的で依存的な逐次レコメンデーションには適用できない。
一方、機密性の高いユーザー機能のプライバシーリスクにはほとんど注意が払われていない。
本稿では,これらの制約に対処するために,ノイズの多いグラフニューラルネットワークアプローチ(dipsgnn)を用いた,差分プライベートなシーケンシャルレコメンデーションフレームワークを提案する。
私たちの知識を最大限に活用するために、我々は、依存する相互作用を伴うシーケンシャルなレコメンデーションにおいて、初めて差分プライバシーを達成する。
具体的には、DIPSGNNでは、まず機密性の高いユーザ機能を保護するために、断片的なメカニズムを活用します。
そこで我々は,アグリゲーション摂動機構に基づくグラフニューラルネットワークのアグリゲーションステップにキャリブレーションノイズを革新的に付加する。
そしてこのノイズの多いグラフニューラルネットワークは、順次依存するインタラクションを保護し、ユーザの好みを同時にキャプチャする。
広汎な実験は、プライバシーと精度のバランスの良さの観点から、最先端の微分プライベートレコメンデータシステムよりも優れていることを示す。
関連論文リスト
- Privacy-Preserving Dynamic Assortment Selection [4.399892832075127]
本稿では,マルチノミアルロジット(MNL)バンドレートモデルを用いて,プライバシ保護のための動的アソシエーション選択のための新しいフレームワークを提案する。
弊社のアプローチでは、ノイズをユーザユーティリティ推定に統合し、探索とエクスプロイトのバランスを保ちつつ、堅牢なプライバシー保護を確保している。
論文 参考訳(メタデータ) (2024-10-29T19:28:01Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Hiding Your Awful Online Choices Made More Efficient and Secure: A New Privacy-Aware Recommender System [5.397825778465797]
本稿では,プライバシを意識した機械学習アルゴリズムを実用的スケーラビリティと効率のために組み合わせた,プライバシを意識した新たなレコメンデーションシステムを提案する。
メモリ制約の低消費電力SOC(System on Chip)デバイスであっても,1億エントリを含むデータセットのプライベートレコメンデーションを初めて計算可能にする。
論文 参考訳(メタデータ) (2024-05-30T21:08:42Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。