論文の概要: Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism
- arxiv url: http://arxiv.org/abs/2304.09096v1
- Date: Tue, 11 Apr 2023 13:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 04:17:11.245174
- Title: Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism
- Title(参考訳): ガウス機構を用いた推薦システムのプライバシー保護マトリックス因子化
- Authors: Sohan Salahuddin Mugdho, Hafiz Imtiaz
- Abstract要約: 本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
- 参考スコア(独自算出の注目度): 2.84279467589473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building a recommendation system involves analyzing user data, which can
potentially leak sensitive information about users. Anonymizing user data is
often not sufficient for preserving user privacy. Motivated by this, we propose
a privacy-preserving recommendation system based on the differential privacy
framework and matrix factorization, which is one of the most popular algorithms
for recommendation systems. As differential privacy is a powerful and robust
mathematical framework for designing privacy-preserving machine learning
algorithms, it is possible to prevent adversaries from extracting sensitive
user information even if the adversary possesses their publicly available
(auxiliary) information. We implement differential privacy via the Gaussian
mechanism in the form of output perturbation and release user profiles that
satisfy privacy definitions. We employ R\'enyi Differential Privacy for a tight
characterization of the overall privacy loss. We perform extensive experiments
on real data to demonstrate that our proposed algorithm can offer excellent
utility for some parameter choices, while guaranteeing strict privacy.
- Abstract(参考訳): レコメンデーションシステムを構築するには、ユーザーデータを分析することが含まれる。
ユーザーデータの匿名化は、ユーザーのプライバシーを守るのに十分ではないことが多い。
そこで本研究では,差分プライバシーフレームワークと行列分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が公開情報(補助情報)を持っている場合でも、敵が機密情報を抽出するのを防ぐことができる。
ガウシアン機構による差分プライバシーを出力摂動の形で実装し、プライバシ定義を満たすユーザプロファイルをリリースする。
我々はr\'enyi differential privacyを採用し、全体的なプライバシー損失の厳格な特徴付けを行っている。
我々は,提案アルゴリズムが厳密なプライバシーを確保しつつ,パラメータ選択に優れたユーティリティを提供できることを示すために,実データに対する広範な実験を行う。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Hiding Your Awful Online Choices Made More Efficient and Secure: A New Privacy-Aware Recommender System [5.397825778465797]
本稿では,プライバシを意識した機械学習アルゴリズムを実用的スケーラビリティと効率のために組み合わせた,プライバシを意識した新たなレコメンデーションシステムを提案する。
メモリ制約の低消費電力SOC(System on Chip)デバイスであっても,1億エントリを含むデータセットのプライベートレコメンデーションを初めて計算可能にする。
論文 参考訳(メタデータ) (2024-05-30T21:08:42Z) - A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management [23.847568516724937]
本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Privacy-preserving Non-negative Matrix Factorization with Outliers [2.84279467589473]
プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
プライベートデータを操作可能な非負行列分解のための新しいプライバシ保存アルゴリズムを提案する。
提案するフレームワークの性能を6つの実データ集合で示す。
論文 参考訳(メタデータ) (2022-11-02T19:42:18Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。