論文の概要: An Empirical Analysis of Fairness Notions under Differential Privacy
- arxiv url: http://arxiv.org/abs/2302.02910v1
- Date: Mon, 6 Feb 2023 16:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:01:41.983993
- Title: An Empirical Analysis of Fairness Notions under Differential Privacy
- Title(参考訳): 微分プライバシー下における公正概念の実証分析
- Authors: Anderson Santana de Oliveira and Caelin Kaplan and Khawla Mallat and
Tanmay Chakraborty
- Abstract要約: DP-SGDに適したモデルアーキテクチャを選択すると、統計的公正基準の異なるクラスに属する異なる公正概念がどう影響するかを示す。
これらの発見は、偏りのあるデータセットに基づいてトレーニングされたディープラーニングモデルにおいて、差分プライバシーが必ずしも不公平を悪化させるという理解に挑戦する。
- 参考スコア(独自算出の注目度): 2.867517731896504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent works have shown that selecting an optimal model architecture suited
to the differential privacy setting is necessary to achieve the best possible
utility for a given privacy budget using differentially private stochastic
gradient descent (DP-SGD)(Tramer and Boneh 2020; Cheng et al. 2022). In light
of these findings, we empirically analyse how different fairness notions,
belonging to distinct classes of statistical fairness criteria (independence,
separation and sufficiency), are impacted when one selects a model architecture
suitable for DP-SGD, optimized for utility. Using standard datasets from ML
fairness literature, we show using a rigorous experimental protocol, that by
selecting the optimal model architecture for DP-SGD, the differences across
groups concerning the relevant fairness metrics (demographic parity, equalized
odds and predictive parity) more often decrease or are negligibly impacted,
compared to the non-private baseline, for which optimal model architecture has
also been selected to maximize utility. These findings challenge the
understanding that differential privacy will necessarily exacerbate unfairness
in deep learning models trained on biased datasets.
- Abstract(参考訳): 近年の研究では、差分プライバシー設定に適合する最適なモデルアーキテクチャを選択することは、差分プライベート確率勾配勾配勾配(DP-SGD)(Tramer and Boneh 2020; Cheng et al. 2022)を用いて、所定のプライバシー予算に最適なユーティリティを実現するために必要とされている。
これらの結果を踏まえ,dp-sgdに適したモデルアーキテクチャを選択した場合に,統計的公正基準(独立性,分離,不十分性)の異なるクラスに属する異なるフェアネス概念がどのように影響を受けるかを実証的に分析する。
MLフェアネス文献の標準データセットを用いて、DP-SGDの最適モデルアーキテクチャを選択することで、実用性を高めるために最適なモデルアーキテクチャが選択された非私的ベースラインと比較して、関連するフェアネス指標(デコログラフパリティ、等化奇数、予測パリティ)に関するグループ間の差異がより減少または無視的に影響されることを示す。
これらの発見は、偏りのあるデータセットに基づいてトレーニングされたディープラーニングモデルにおいて、差分プライバシーが必ずしも不公平を悪化させるという理解に挑戦する。
関連論文リスト
- Optimizing LLMs with Direct Preferences: A Data Efficiency Perspective [4.548047308860141]
本研究では,異なる種類の嗜好データがモデル性能に与える影響について検討する。
収集に費用がかかる大量の好みデータへの依存を減らすことを目的としている。
論文 参考訳(メタデータ) (2024-10-22T00:11:41Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Implicitly Guided Design with PropEn: Match your Data to Follow the Gradient [52.2669490431145]
PropEnは'matching'にインスパイアされている。
一致したデータセットによるトレーニングは、データ分布内に留まりながら、興味のある性質の勾配を近似することを示す。
論文 参考訳(メタデータ) (2024-05-28T11:30:19Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Privacy-Preserving and Lossless Distributed Estimation of
High-Dimensional Generalized Additive Mixed Models [0.9023847175654603]
CWBを用いたGAMM(Generalized Additive Mixed Model)の分散・プライバシ保存・ロスレス推定アルゴリズムを提案する。
我々のCWBの適応は、偏りのない特徴選択や高次元特徴空間におけるモデル適合性など、元のアルゴリズムのすべての重要な特性を保っている。
また, 分散心疾患データセット上でのアルゴリズムの有効性を実証し, 最先端の手法と比較した。
論文 参考訳(メタデータ) (2022-10-14T11:41:18Z) - Adaptive Expert Models for Personalization in Federated Learning [0.9449650062296824]
フェデレートラーニング(FL)は、データがプライベートでセンシティブな場合、分散ラーニングのための有望なフレームワークである。
本研究では,不均質データや非IIDデータに適応するFLのパーソナライズへの実用的で堅牢なアプローチを提案する。
本研究は,病的非IID条件下での局所モデルと比較して,最大29.78 %,最大4.38 %の精度を実現していることを示す。
論文 参考訳(メタデータ) (2022-06-15T22:05:36Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Decomposed Adversarial Learned Inference [118.27187231452852]
我々は,DALI(Decomposed Adversarial Learned Inference)という新しいアプローチを提案する。
DALIは、データ空間とコード空間の両方の事前および条件分布を明示的に一致させる。
MNIST, CIFAR-10, CelebAデータセットにおけるDALIの有効性を検証する。
論文 参考訳(メタデータ) (2020-04-21T20:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。