論文の概要: Fairness-aware Differentially Private Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2303.09527v1
- Date: Thu, 16 Mar 2023 17:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:17:20.452996
- Title: Fairness-aware Differentially Private Collaborative Filtering
- Title(参考訳): フェアネスを考慮した個人共同フィルタリング
- Authors: Zhenhuan Yang, Yingqiang Ge, Congzhe Su, Dingxian Wang, Xiaoting Zhao,
Yiming Ying
- Abstract要約: 協調フィルタリングに基づくアルゴリズムのための2段階フレームワークである textbfDP-Fair を提案する。
具体的には、差別的なプライバシメカニズムと公正な制約を組み合わせて、公正なレコメンデーションを確保しながらユーザのプライバシを保護する。
- 参考スコア(独自算出の注目度): 22.815168994407358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been an increasing adoption of differential privacy
guided algorithms for privacy-preserving machine learning tasks. However, the
use of such algorithms comes with trade-offs in terms of algorithmic fairness,
which has been widely acknowledged. Specifically, we have empirically observed
that the classical collaborative filtering method, trained by differentially
private stochastic gradient descent (DP-SGD), results in a disparate impact on
user groups with respect to different user engagement levels. This, in turn,
causes the original unfair model to become even more biased against inactive
users. To address the above issues, we propose \textbf{DP-Fair}, a two-stage
framework for collaborative filtering based algorithms. Specifically, it
combines differential privacy mechanisms with fairness constraints to protect
user privacy while ensuring fair recommendations. The experimental results,
based on Amazon datasets, and user history logs collected from Etsy, one of the
largest e-commerce platforms, demonstrate that our proposed method exhibits
superior performance in terms of both overall accuracy and user group fairness
on both shallow and deep recommendation models compared to vanilla DP-SGD.
- Abstract(参考訳): 近年,プライバシーを保全する機械学習タスクにおいて,ディファレンシャルプライバシガイドアルゴリズムが採用されている。
しかし、そのようなアルゴリズムの使用はアルゴリズムの公平性の観点からトレードオフがあり、広く認められている。
具体的には,DP-SGDにより学習された古典的協調フィルタリング手法が,異なるユーザエンゲージメントレベルに対して,異なるユーザグループに異なる影響を与えることを実証的に観察した。
これにより、元の不公平なモデルは、非アクティブなユーザに対してより偏りが増す。
上記の問題に対処するために,協調フィルタリングに基づくアルゴリズムのための二段階フレームワークである \textbf{dp-fair} を提案する。
具体的には、差別的なプライバシメカニズムと公正な制約を組み合わせて、公正なレコメンデーションを確保しながらユーザのプライバシを保護する。
AmazonデータセットとEtsyから収集したユーザ履歴ログに基づく実験結果から,提案手法は,バニラDP-SGDと比較して,浅部および深部の両方の推奨モデルに対して,全体的な精度とユーザグループフェアネスの両方において優れた性能を示すことが示された。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Personalized Federated Collaborative Filtering: A Variational AutoEncoder Approach [49.63614966954833]
Federated Collaborative Filtering (FedCF)は、プライバシを保護する新しいレコメンデーションフレームワークの開発に焦点を当てた新興分野である。
本稿では,ユーザのパーソナライズされた情報を潜在変数とニューラルモデルに同時に保存することで,新たなパーソナライズされたFedCF手法を提案する。
提案フレームワークを効果的に学習するために,ユーザインタラクションベクトル再構成と欠落した値予測を統合することで,特殊変分オートエンコーダ(VAE)タスクとして問題をモデル化する。
論文 参考訳(メタデータ) (2024-08-16T05:49:14Z) - An Empirical Analysis of Fairness Notions under Differential Privacy [3.3748750222488657]
DP-SGDに適したモデルアーキテクチャを選択すると、統計的公正基準の異なるクラスに属する異なる公正概念がどう影響するかを示す。
これらの発見は、偏りのあるデータセットに基づいてトレーニングされたディープラーニングモデルにおいて、差分プライバシーが必ずしも不公平を悪化させるという理解に挑戦する。
論文 参考訳(メタデータ) (2023-02-06T16:29:50Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Subject Granular Differential Privacy in Federated Learning [2.9439848714137447]
本稿では,各フェデレーションユーザに対して,主観レベルDPを局所的に適用する2つの新しいアルゴリズムを提案する。
我々の最初のアルゴリズムはLocalGroupDPと呼ばれ、人気のあるDP-SGDアルゴリズムにおけるグループ差分プライバシーの簡単な応用である。
第2のアルゴリズムは、トレーニングミニバッチに参加する被験者を対象とした階層的勾配平均化(HiGradAvgDP)という新しいアイデアに基づいている。
論文 参考訳(メタデータ) (2022-06-07T23:54:36Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Differentially Private Federated Learning on Heterogeneous Data [10.431137628048356]
フェデレートラーニング(Federated Learning、FL)は、大規模分散ラーニングのパラダイムである。
i)高度に異質なユーザデータからの効率的なトレーニング、(ii)参加ユーザのプライバシ保護という2つの大きな課題に直面しています。
本稿では,差分プライバシー(DP)制約を取り入れた新しいFL手法を提案する。
論文 参考訳(メタデータ) (2021-11-17T18:23:49Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。