論文の概要: Fairness Certificates for Differentially Private Classification
- arxiv url: http://arxiv.org/abs/2210.16242v1
- Date: Fri, 28 Oct 2022 16:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:47:41.600707
- Title: Fairness Certificates for Differentially Private Classification
- Title(参考訳): 識別的個人分類のための公正証明書
- Authors: Paul Mangold, Micha\"el Perrot, Aur\'elien Bellet, Marc Tommasi
- Abstract要約: 差分プライバシーが二分分類における公平性に与える影響について検討する。
モデルのクラスを考えると、一般的な群フェアネス測度はモデルのパラメータに関してポイントワイズ・リプシッツ連続であることが証明される。
- 参考スコア(独自算出の注目度): 3.9667328624568317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we theoretically study the impact of differential privacy on
fairness in binary classification. We prove that, given a class of models,
popular group fairness measures are pointwise Lipschitz-continuous with respect
to the parameters of the model. This result is a consequence of a more general
statement on the probability that a decision function makes a negative
prediction conditioned on an arbitrary event (such as membership to a sensitive
group), which may be of independent interest. We use the aforementioned
Lipschitz property to prove a high probability bound showing that, given enough
examples, the fairness level of private models is close to the one of their
non-private counterparts.
- Abstract(参考訳): 本研究では,二項分類における差分プライバシーの影響を理論的に検討する。
モデルの種類が与えられたとき、人気群フェアネス測度はモデルのパラメーターに対してポイントワイズリプシッツ連続であることが証明される。
この結果は、決定関数が任意の事象(センシティブなグループへの加入など)に対して負の予測を行う確率についてのより一般的な声明の結果である。
上記のリプシッツ特性を用いて高い確率境界を証明し、十分な例が与えられた場合、プライベートモデルの公平度レベルが、その非プライベートモデルのいずれかに近いことを示す。
関連論文リスト
- A Systematic and Formal Study of the Impact of Local Differential Privacy on Fairness: Preliminary Results [5.618541935188389]
差分プライバシー(DP)は、プライバシ保護機械学習(ML)アルゴリズムの主要なソリューションである。
近年の研究では、ローカルDPが個人の異なるサブグループに対するML予測に影響を及ぼすことが示されている。
ローカルDPの下でのMLモデルによる決定の公平性は,プライバシやデータ分布の異なるレベルにおいてどのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-05-23T15:54:03Z) - On the Impact of Output Perturbation on Fairness in Binary Linear
Classification [0.3916094706589679]
二元線形分類において、差分プライバシーが個人と集団の公平性の両方とどのように相互作用するかを考察する。
我々は、摂動モデルが達成できる個人とグループフェアネスのレベルに基づいて、高い確率境界を導出する。
論文 参考訳(メタデータ) (2024-02-05T13:50:08Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - When Does Differentially Private Learning Not Suffer in High Dimensions? [43.833397016656704]
大規模な事前訓練されたモデルは、プライベートでないモデルに近づくパフォーマンスを達成するために、プライベートに微調整することができる。
これは、差分的にプライベートな凸学習のモデルサイズ依存に関する既知の結果と矛盾しているように見える。
論文 参考訳(メタデータ) (2022-07-01T02:36:51Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The Impact of Differential Privacy on Group Disparity Mitigation [28.804933301007644]
差分プライバシーが4つのタスクの公平性に与える影響を評価する。
私たちは、経験的リスク最小化を伴う$(varepsilon,delta)$-differentially privateモデルをトレーニングします。
基本設定におけるグループ間性能差は,差分プライバシが増加することが判明した。
しかし、差分プライバシーは、ロバストな設定におけるグループ間のパフォーマンス差を減少させる。
論文 参考訳(メタデータ) (2022-03-05T13:55:05Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。