論文の概要: Fairness-aware Differentially Private Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2303.09527v1
- Date: Thu, 16 Mar 2023 17:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:17:20.452996
- Title: Fairness-aware Differentially Private Collaborative Filtering
- Title(参考訳): フェアネスを考慮した個人共同フィルタリング
- Authors: Zhenhuan Yang, Yingqiang Ge, Congzhe Su, Dingxian Wang, Xiaoting Zhao,
Yiming Ying
- Abstract要約: 協調フィルタリングに基づくアルゴリズムのための2段階フレームワークである textbfDP-Fair を提案する。
具体的には、差別的なプライバシメカニズムと公正な制約を組み合わせて、公正なレコメンデーションを確保しながらユーザのプライバシを保護する。
- 参考スコア(独自算出の注目度): 22.815168994407358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been an increasing adoption of differential privacy
guided algorithms for privacy-preserving machine learning tasks. However, the
use of such algorithms comes with trade-offs in terms of algorithmic fairness,
which has been widely acknowledged. Specifically, we have empirically observed
that the classical collaborative filtering method, trained by differentially
private stochastic gradient descent (DP-SGD), results in a disparate impact on
user groups with respect to different user engagement levels. This, in turn,
causes the original unfair model to become even more biased against inactive
users. To address the above issues, we propose \textbf{DP-Fair}, a two-stage
framework for collaborative filtering based algorithms. Specifically, it
combines differential privacy mechanisms with fairness constraints to protect
user privacy while ensuring fair recommendations. The experimental results,
based on Amazon datasets, and user history logs collected from Etsy, one of the
largest e-commerce platforms, demonstrate that our proposed method exhibits
superior performance in terms of both overall accuracy and user group fairness
on both shallow and deep recommendation models compared to vanilla DP-SGD.
- Abstract(参考訳): 近年,プライバシーを保全する機械学習タスクにおいて,ディファレンシャルプライバシガイドアルゴリズムが採用されている。
しかし、そのようなアルゴリズムの使用はアルゴリズムの公平性の観点からトレードオフがあり、広く認められている。
具体的には,DP-SGDにより学習された古典的協調フィルタリング手法が,異なるユーザエンゲージメントレベルに対して,異なるユーザグループに異なる影響を与えることを実証的に観察した。
これにより、元の不公平なモデルは、非アクティブなユーザに対してより偏りが増す。
上記の問題に対処するために,協調フィルタリングに基づくアルゴリズムのための二段階フレームワークである \textbf{dp-fair} を提案する。
具体的には、差別的なプライバシメカニズムと公正な制約を組み合わせて、公正なレコメンデーションを確保しながらユーザのプライバシを保護する。
AmazonデータセットとEtsyから収集したユーザ履歴ログに基づく実験結果から,提案手法は,バニラDP-SGDと比較して,浅部および深部の両方の推奨モデルに対して,全体的な精度とユーザグループフェアネスの両方において優れた性能を示すことが示された。
関連論文リスト
- An Empirical Analysis of Fairness Notions under Differential Privacy [2.867517731896504]
DP-SGDに適したモデルアーキテクチャを選択すると、統計的公正基準の異なるクラスに属する異なる公正概念がどう影響するかを示す。
これらの発見は、偏りのあるデータセットに基づいてトレーニングされたディープラーニングモデルにおいて、差分プライバシーが必ずしも不公平を悪化させるという理解に挑戦する。
論文 参考訳(メタデータ) (2023-02-06T16:29:50Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Differentially Private Federated Learning on Heterogeneous Data [10.431137628048356]
フェデレートラーニング(Federated Learning、FL)は、大規模分散ラーニングのパラダイムである。
i)高度に異質なユーザデータからの効率的なトレーニング、(ii)参加ユーザのプライバシ保護という2つの大きな課題に直面しています。
本稿では,差分プライバシー(DP)制約を取り入れた新しいFL手法を提案する。
論文 参考訳(メタデータ) (2021-11-17T18:23:49Z) - Enforcing fairness in private federated learning via the modified method
of differential multipliers [1.3381749415517021]
差分プライバシーによるフェデレーション学習、あるいはプライベートフェデレーション学習は、ユーザのプライバシを尊重しながら機械学習モデルをトレーニングする戦略を提供する。
本稿では,ユーザのデータがデバイスを離れないプライベートフェデレーション学習において,グループフェアネスを強制するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-17T15:28:47Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。