論文の概要: Decentralized Matrix Factorization with Heterogeneous Differential
Privacy
- arxiv url: http://arxiv.org/abs/2212.00306v2
- Date: Sun, 17 Sep 2023 03:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:10:20.029498
- Title: Decentralized Matrix Factorization with Heterogeneous Differential
Privacy
- Title(参考訳): 不均一なディファレンシャルプライバシを持つ分散行列分解
- Authors: Wentao Hu and Hui Fang
- Abstract要約: 信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
- 参考スコア(独自算出の注目度): 2.4743508801114444
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conventional matrix factorization relies on centralized collection of users'
data for recommendation, which might introduce an increased risk of privacy
leakage especially when the recommender is untrusted. Existing differentially
private matrix factorization methods either assume the recommender is trusted,
or can only provide a uniform level of privacy protection for all users and
items with untrusted recommender. In this paper, we propose a novel
Heterogeneous Differentially Private Matrix Factorization algorithm (denoted as
HDPMF) for untrusted recommender. To the best of our knowledge, we are the
first to achieve heterogeneous differential privacy for decentralized matrix
factorization in untrusted recommender scenario. Specifically, our framework
uses modified stretching mechanism with an innovative rescaling scheme to
achieve better trade off between privacy and accuracy. Meanwhile, by allocating
privacy budget properly, we can capture homogeneous privacy preference within a
user/item but heterogeneous privacy preference across different users/items.
Theoretical analysis confirms that HDPMF renders rigorous privacy guarantee,
and exhaustive experiments demonstrate its superiority especially in strong
privacy guarantee, high dimension model and sparse dataset scenario.
- Abstract(参考訳): 従来のマトリックスファクタリングは、ユーザのレコメンデーションのための集中的なデータ収集に依存しているため、特にレコメンデータが信頼できない場合には、プライバシリークのリスクが高まる可能性がある。
既存のプライベートな行列因数分解手法は、推奨者が信頼されていると仮定するか、または信頼できない推奨者を持つすべてのユーザやアイテムに対して、一様にプライバシー保護を提供することができる。
本稿では,信頼度の低いレコメンデータに対して,不均一な微分プライベート行列分解アルゴリズム(hdpmf)を提案する。
我々の知る限りでは、信頼できないレコメンデータシナリオにおいて、分散行列分解のための異種差分プライバシーを最初に達成する。
具体的には,改良されたストレッチ機構と革新的なリスケーリングスキームを用いて,プライバシと精度のトレードオフを改善する。
一方,プライバシ予算を適切に割り当てることで,ユーザ/イット内の均質なプライバシの選好を,異なるユーザ/イット間の異質なプライバシの選好を捉えることができる。
理論的分析により、hdpmfは厳密なプライバシ保証を実現しており、徹底的な実験は特に強力なプライバシ保証、高次元モデル、スパースデータセットシナリオにおいてその優位性を示している。
関連論文リスト
- Causal Inference with Differentially Private (Clustered) Outcomes [10.08890668924377]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
データの任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems [0.190365714903665]
我々は、同型暗号化に基づく新しいプライバシ保存フレームワーク、プライバシ保存多視点行列分解(PrivMVMF)を提案する。
PrivMVMFはMovieLensデータセットでうまく実装され、徹底的にテストされている。
論文 参考訳(メタデータ) (2022-09-29T03:21:24Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - One-Bit Matrix Completion with Differential Privacy [6.409622409155275]
差分プライバシー制約下での1ビット行列補完のための新しいフレームワークを提案する。
提案手法は, 精度を損なうことなく, 高いレベルのプライバシを維持することができる。
論文 参考訳(メタデータ) (2021-10-02T03:49:55Z) - Practical and Secure Federated Recommendation with Personalized Masks [24.565751694946062]
フェデレートレコメンデーションは、プライベート分散レコメンデーションシステムの新たな概念である。
現在のレコメンデータシステムは、主に同型暗号化と差分プライバシー方式を利用している。
本稿では,新しいフェデレーション・リコメンデーション・フレームワークであるフェデレーション・マスク・マトリックス・ファクタライゼーションを提案する。
論文 参考訳(メタデータ) (2021-08-18T07:12:23Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。