論文の概要: BGTplanner: Maximizing Training Accuracy for Differentially Private Federated Recommenders via Strategic Privacy Budget Allocation
- arxiv url: http://arxiv.org/abs/2412.02934v1
- Date: Wed, 04 Dec 2024 01:07:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:06:48.653215
- Title: BGTplanner: Maximizing Training Accuracy for Differentially Private Federated Recommenders via Strategic Privacy Budget Allocation
- Title(参考訳): BGTplanner: 戦略的プライバシ予算配分を通じて、異なるプライベートなフェデレーションレコメンデーションのトレーニング精度を最大化する
- Authors: Xianzhi Zhang, Yipeng Zhou, Miao Hu, Di Wu, Pengshan Liao, Mohsen Guizani, Michael Sheng,
- Abstract要約: DPFR訓練の各ラウンドのプライバシー予算を戦略的に配分するBGTplannerを開発する。
BGTplannerは、最先端のベースラインと比較して、トレーニングパフォーマンスが平均6.76%向上している。
- 参考スコア(独自算出の注目度): 39.47474732703549
- License:
- Abstract: To mitigate the rising concern about privacy leakage, the federated recommender (FR) paradigm emerges, in which decentralized clients co-train the recommendation model without exposing their raw user-item rating data. The differentially private federated recommender (DPFR) further enhances FR by injecting differentially private (DP) noises into clients. Yet, current DPFRs, suffering from noise distortion, cannot achieve satisfactory accuracy. Various efforts have been dedicated to improving DPFRs by adaptively allocating the privacy budget over the learning process. However, due to the intricate relation between privacy budget allocation and model accuracy, existing works are still far from maximizing DPFR accuracy. To address this challenge, we develop BGTplanner (Budget Planner) to strategically allocate the privacy budget for each round of DPFR training, improving overall training performance. Specifically, we leverage the Gaussian process regression and historical information to predict the change in recommendation accuracy with a certain allocated privacy budget. Additionally, Contextual Multi-Armed Bandit (CMAB) is harnessed to make privacy budget allocation decisions by reconciling the current improvement and long-term privacy constraints. Our extensive experimental results on real datasets demonstrate that \emph{BGTplanner} achieves an average improvement of 6.76\% in training performance compared to state-of-the-art baselines.
- Abstract(参考訳): プライバシーの漏洩に関する懸念を和らげるために、フェデレーションレコメンデータ(FR)パラダイムが出現する。
差分プライベートフェデレーションレコメンダ(DPFR)は、差分プライベート(DP)ノイズをクライアントに注入することによりFRをさらに強化する。
しかし、ノイズ歪みに悩まされている現在のDPFRでは、良好な精度が得られない。
学習プロセスのプライバシー予算を適応的に割り当てることで、DPFRの改善にさまざまな努力が注がれている。
しかし、プライバシ予算割り当てとモデル精度の複雑な関係から、既存の作業はDPFRの精度を最大化するには程遠い。
この課題に対処するため、我々は、DPFRトレーニングの各ラウンドのプライバシー予算を戦略的に割り当てるBGTplanner(予算プランナー)を開発し、総合的なトレーニング性能を向上させる。
具体的には、ガウス過程の回帰と履歴情報を利用して、特定のプライバシ予算で推奨精度の変化を予測する。
さらに、Contentual Multi-Armed Bandit (CMAB)は、現在の改善と長期のプライバシー制約を整合させることで、プライバシー予算の配分決定に利用される。
実データセットに対する広範な実験結果から,<emph{BGTplanner} は,最先端のベースラインに比べてトレーニング性能が6.766%向上したことが示された。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - An Adaptive Differential Privacy Method Based on Federated Learning [2.86006952502785]
本稿では,フェデレート学習に基づく適応型微分プライバシー手法を提案する。
プライバシーの予算を約16%削減できるが、精度はほぼ同じだ。
論文 参考訳(メタデータ) (2024-08-13T13:08:11Z) - "Private Prediction Strikes Back!'' Private Kernelized Nearest Neighbors
with Individual Renyi Filter [31.970442970375153]
Ind-KNN(Personalized Nearest Neighbor)というアルゴリズムを提案する。
Ind-KNNはデータセットの変更に対して容易に更新可能であり、個々のユーザレベルでR'enyiを正確に制御できる。
以上の結果から,Ind-KNNは4つの視覚および言語タスクにおいて,既存のプライベート予測手法よりも,幅広い$epsilon$の精度を一貫して向上させることがわかった。
論文 参考訳(メタデータ) (2023-06-12T19:14:45Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Dynamic Differential-Privacy Preserving SGD [19.273542515320372]
Differentially-Private Gradient Descent (DP-SGD)は、SGDトレーニング中にクリップされた勾配にノイズを加えることで、トレーニングデータのプライバシ侵害を防止する。
同じクリップ操作とトレーニングステップ間の付加ノイズにより、不安定な更新や、上昇期間も生じる。
更新時にDP-SGDよりも低いプライバシコストの動的DP-SGDを提案する。
論文 参考訳(メタデータ) (2021-10-30T04:45:11Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。