論文の概要: Differential Privacy has Bounded Impact on Fairness in Classification
- arxiv url: http://arxiv.org/abs/2210.16242v3
- Date: Mon, 18 Sep 2023 10:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:22:02.715311
- Title: Differential Privacy has Bounded Impact on Fairness in Classification
- Title(参考訳): 差別的プライバシーは、分類の公平性に影響を及ぼす
- Authors: Paul Mangold, Micha\"el Perrot, Aur\'elien Bellet, Marc Tommasi
- Abstract要約: 分類における差分プライバシーが公平性に与える影響について検討する。
モデルのクラスを考えると、一般的な群フェアネス測度はモデルのパラメータに関してポイントワイズ・リプシッツ連続であることが証明される。
- 参考スコア(独自算出の注目度): 7.022004731560844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We theoretically study the impact of differential privacy on fairness in
classification. We prove that, given a class of models, popular group fairness
measures are pointwise Lipschitz-continuous with respect to the parameters of
the model. This result is a consequence of a more general statement on accuracy
conditioned on an arbitrary event (such as membership to a sensitive group),
which may be of independent interest. We use this Lipschitz property to prove a
non-asymptotic bound showing that, as the number of samples increases, the
fairness level of private models gets closer to the one of their non-private
counterparts. This bound also highlights the importance of the confidence
margin of a model on the disparate impact of differential privacy.
- Abstract(参考訳): 分類における差分プライバシーの影響を理論的に検討する。
モデルの種類が与えられたとき、人気群フェアネス測度はモデルのパラメーターに対してポイントワイズリプシッツ連続であることが証明される。
この結果は、任意の事象(センシティブなグループへの加入など)に条件づけられた精度に関するより一般的なステートメントの結果である。
このリプシッツ特性を用いて非漸近的な境界を証明し、サンプル数が増加するにつれて、プライベートモデルの公平性レベルが非プライベートモデルのそれに近いことを証明します。
この境界はまた、差分プライバシーの異なる影響に対するモデルの信頼率の重要性を強調している。
関連論文リスト
- When Does Confidence-Based Cascade Deferral Suffice? [73.79131007670354]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Auditing Predictive Models for Intersectional Biases [1.9346186297861747]
Conditional Bias Scan (CBS)は、分類モデルにおける交差バイアスを検出するフレキシブル監査フレームワークである。
CBSは、保護されていないクラスの同等のサブグループと比較して、保護されたクラスに対して最も重要なバイアスがあるサブグループを特定している。
本手法は,CompAS前リスクアセスメントツールにおいて,未同定の交差点バイアスとコンテキストバイアスを検出できることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:32:12Z) - Equalised Odds is not Equal Individual Odds: Post-processing for Group
and Individual Fairness [17.10444992448949]
グループフェアネスは、保護されたサブ人口間の予測分布を等化することによって達成される。
個々人の公平さには 同じような扱いが必要です
この手順は、異なる分類の確率を持つ同じ保護グループの2つの類似した個人を与えることができる。
論文 参考訳(メタデータ) (2023-04-19T16:02:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction [7.975779552420981]
単一モデルによるトレードオフを改善することを目的とした条件付きid(ciid)モデルを提案する。
我々は、CompASおよびフォークテーブルデータセット上で、我々の設定を実証的にテストする。
分析の結果,条件付きモデルが好まれる原則的手順や具体的な実世界のユースケースが存在する可能性が示唆された。
論文 参考訳(メタデータ) (2023-02-17T05:34:35Z) - When Does Differentially Private Learning Not Suffer in High Dimensions? [43.833397016656704]
大規模な事前訓練されたモデルは、プライベートでないモデルに近づくパフォーマンスを達成するために、プライベートに微調整することができる。
これは、差分的にプライベートな凸学習のモデルサイズ依存に関する既知の結果と矛盾しているように見える。
論文 参考訳(メタデータ) (2022-07-01T02:36:51Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - PSD Representations for Effective Probability Models [117.35298398434628]
最近提案された非負関数に対する正半定値(PSD)モデルがこの目的に特に適していることを示す。
我々はPSDモデルの近似と一般化能力の両方を特徴付け、それらが強い理論的保証を享受していることを示す。
本研究では,PSDモデルの密度推定,決定理論,推論への応用への道を開く。
論文 参考訳(メタデータ) (2021-06-30T15:13:39Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。