論文の概要: Privacy-Utility-Bias Trade-offs for Privacy-Preserving Recommender Systems
- arxiv url: http://arxiv.org/abs/2511.22515v1
- Date: Thu, 27 Nov 2025 14:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.615266
- Title: Privacy-Utility-Bias Trade-offs for Privacy-Preserving Recommender Systems
- Title(参考訳): プライバシ保護レコメンダシステムにおけるプライバシ・ユーティリティ・バイアスのトレードオフ
- Authors: Shiva Parsarad, Isabel Wagner,
- Abstract要約: プライバシメカニズムがレコメンデーション精度と公平性の両方にどのように影響するかを評価する。
プライバシーの強化は実用性を継続的に低下させるが、一様ではない。
単一のDPメカニズムが一様に優れているわけではなく、それぞれ異なるプライバシとデータ条件下でトレードオフを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems (RSs) output ranked lists of items, such as movies or restaurants, that users may find interesting, based on the user's past ratings and ratings from other users. RSs increasingly incorporate differential privacy (DP) to protect user data, raising questions about how privacy mechanisms affect both recommendation accuracy and fairness. We conduct a comprehensive, cross-model evaluation of two DP mechanisms, differentially private stochastic gradient descent (DPSGD) and local differential privacy (LDP), applied to four recommender systems (Neural Collaborative Filtering (NCF), Bayesian Personalized Ranking (BPR), Singular Value Decomposition (SVD), and Variational Autoencoder (VAE)) on the MovieLens-1M and Yelp datasets. We find that stronger privacy consistently reduces utility, but not uniformly. NCF under DPSGD shows the smallest accuracy loss (under 10 percent at epsilon approximately 1), whereas SVD and BPR experience larger drops, especially for users with niche preferences. VAE is the most sensitive to privacy, with sharp declines for sparsely represented groups. The impact on bias metrics is similarly heterogeneous. DPSGD generally reduces the gap between recommendations of popular and less popular items, whereas LDP preserves existing patterns more closely. These results highlight that no single DP mechanism is uniformly superior; instead, each provides trade-offs under different privacy regimes and data conditions.
- Abstract(参考訳): Recommender System(RS)は、ユーザーが過去の評価や他のユーザーの評価に基づいて、映画やレストランなどのアイテムのリストを出力する。
RSは、ユーザーデータを保護するためにディファレンシャルプライバシ(DP)を導入し、プライバシメカニズムがレコメンデーションの正確性と公平性の両方にどのように影響するかという疑問を提起する。
また,NCF(Neural Collaborative Filtering),BPR(Bayesian Personalized Ranking),SVD(Singular Value Decomposition),VAE(Invariantal Autoencoder)の4つの推奨システムに適用した。
プライバシーの強化は実用性を継続的に低下させるが、一様ではない。
DPSGD の NCF は最小の精度損失(epsilon の10%以下)を示しており、SVD と BPR は特にニッチな好みを持つユーザに対して大きな低下を経験している。
VAEはプライバシーに最も敏感で、わずかに代表されるグループでは急激に減少している。
バイアスメトリクスへの影響も同様に異質である。
DPSGDは一般的に、人気アイテムと人気の低いアイテムのレコメンデーションのギャップを減らし、LDPは既存のパターンをより緊密に保存する。
これらの結果は、単一のDPメカニズムが一様に優れていることはなく、代わりに、それぞれ異なるプライバシー体制とデータ条件の下でトレードオフを提供する。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Differentially Private Adaptation of Diffusion Models via Noisy Aggregated Embeddings [23.687702204151872]
Textual Inversion (TI)は、画像や画像の集合に対する埋め込みベクトルを学習し、差分プライバシー制約の下で適応を可能にする。
DPAgg-TIはDP-SGDファインタニングを同一のプライバシー予算の下で実用性と堅牢性の両方で上回ることを示す。
論文 参考訳(メタデータ) (2024-11-22T00:09:49Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Conciliating Privacy and Utility in Data Releases via Individual Differential Privacy and Microaggregation [4.287502453001108]
$epsilon$-Differential Privacy(DP)は、強力なプライバシ保証を提供するよく知られたプライバシモデルである。
被験者にDPと同じ保護を提供しながらデータ歪みを低減させるiDP ($epsilon$-individual differential privacy) を提案する。
本稿では,2次データ解析の精度を著しく低下させることのない保護データを提供しながら,我々のアプローチが強力なプライバシ(小額のepsilon$)を提供することを示す実験について報告する。
論文 参考訳(メタデータ) (2023-12-21T10:23:18Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Private and Utility Enhanced Recommendations with Local Differential
Privacy and Gaussian Mixture Model [14.213973630742666]
ローカル差動プライバシー(LDP)ベースの摂動メカニズムは、サービスプロバイダー(SP)に送信する前に、ユーザー側のユーザーデータにノイズを追加します。
LDPはユーザーのプライバシーをSPから保護しますが、予測精度が大幅に低下します。
提案手法は, LDPの原則に違反することなく, 推薦精度を向上する。
論文 参考訳(メタデータ) (2021-02-26T13:15:23Z) - Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication [22.171647103023773]
フェデレートラーニング(FL)は、分散された構造のため、大量のデータをプライベートにトレーニングすることができる。
SGDを用いたFLモデルにおいて,ユーザデータのローカル差分プライバシー(LDP)を維持するためのガウス的メカニズムを検討する。
その結果,既存のプライバシ会計法と比較して,実用性が大きく,伝送速度も低いことが保証された。
論文 参考訳(メタデータ) (2021-02-09T10:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。