論文の概要: The Impact of Differential Privacy on Group Disparity Mitigation
- arxiv url: http://arxiv.org/abs/2203.02745v1
- Date: Sat, 5 Mar 2022 13:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 11:06:03.660748
- Title: The Impact of Differential Privacy on Group Disparity Mitigation
- Title(参考訳): 差別化プライバシが集団格差緩和に及ぼす影響
- Authors: Victor Petr\'en Bach Hansen, Atula Tejaswi Neerkaje, Ramit Sawhney,
Lucie Flek, Anders S{\o}gaard
- Abstract要約: 差分プライバシーが4つのタスクの公平性に与える影響を評価する。
私たちは、経験的リスク最小化を伴う$(varepsilon,delta)$-differentially privateモデルをトレーニングします。
基本設定におけるグループ間性能差は,差分プライバシが増加することが判明した。
しかし、差分プライバシーは、ロバストな設定におけるグループ間のパフォーマンス差を減少させる。
- 参考スコア(独自算出の注目度): 28.804933301007644
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The performance cost of differential privacy has, for some applications, been
shown to be higher for minority groups; fairness, conversely, has been shown to
disproportionally compromise the privacy of members of such groups. Most work
in this area has been restricted to computer vision and risk assessment. In
this paper, we evaluate the impact of differential privacy on fairness across
four tasks, focusing on how attempts to mitigate privacy violations and
between-group performance differences interact: Does privacy inhibit attempts
to ensure fairness? To this end, we train $(\varepsilon,\delta)$-differentially
private models with empirical risk minimization and group distributionally
robust training objectives. Consistent with previous findings, we find that
differential privacy increases between-group performance differences in the
baseline setting; but more interestingly, differential privacy reduces
between-group performance differences in the robust setting. We explain this by
reinterpreting differential privacy as regularization.
- Abstract(参考訳): ディファレンシャルプライバシのパフォーマンスコストは、一部のアプリケーションではマイノリティグループの方が高いことが示されており、逆にフェアネスは、そのようなグループのメンバーのプライバシを不釣り合いに損なうことが示されている。
この分野の作業のほとんどはコンピュータビジョンとリスクアセスメントに限定されている。
本稿では,4つの課題にまたがる公平性に対する差分プライバシーの影響を評価し,プライバシー侵害とグループ間のパフォーマンス差の軽減が相互にどのように作用するかを考察する。
この目的のために、経験的リスク最小化と群分布的堅牢なトレーニング目標を備えた$(\varepsilon,\delta)$-differentially private modelを訓練する。
従来の知見と一致して,基本設定におけるグループ間性能差は群間性能差を増大させるが,より興味深いことに,ロバスト設定におけるグループ間性能差を減少させる。
差分プライバシーを正規化として再解釈することで、これを説明します。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy at a Price: Exploring its Dual Impact on AI Fairness [24.650648702853903]
機械学習モデルにおける差分プライバシーは、予測精度に関して異なる階層群に不平等に影響を及ぼすことを示した。
これは公平性への懸念を招き、パフォーマンスのバイアスとして現れます。
微分プライベート勾配降下ML法における勾配クリッピングの実装は、DPノイズの公平性に対する負の影響を軽減することができる。
論文 参考訳(メタデータ) (2024-04-15T00:23:41Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - Differential Privacy has Bounded Impact on Fairness in Classification [7.022004731560844]
分類における差分プライバシーが公平性に与える影響について検討する。
モデルのクラスを考えると、一般的な群フェアネス測度はモデルのパラメータに関してポイントワイズ・リプシッツ連続であることが証明される。
論文 参考訳(メタデータ) (2022-10-28T16:19:26Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Differentially Private Deep Learning under the Fairness Lens [34.28936739262812]
微分プライバシー(DP)は、プライベート機械学習システムにとって重要なプライバシー強化技術である。
計算に個々の参加に伴うリスクを計測し、バウンドすることができる。
近年,DP学習システムは,個人集団の偏見や不公平性を悪化させる可能性が指摘されている。
論文 参考訳(メタデータ) (2021-06-04T19:10:09Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Removing Disparate Impact of Differentially Private Stochastic Gradient
Descent on Model Accuracy [18.69118059633505]
機械学習において差分プライバシを強制する場合、ユーティリティプライバシのトレードオフは各グループごとに異なります。
本研究では、差分プライバシーによるユーティリティ損失の不等式の分析を行い、修正差分プライベート勾配勾配(DPSGD)を提案する。
実験により, DPSGDFにおけるグループ標本サイズとグループクリッピングバイアスが, DPSGDFにおける差分プライバシの影響に及ぼす影響と, DPSGDFにおける差分プライバシによる差分クリッピングの影響を緩和する要因について検討した。
論文 参考訳(メタデータ) (2020-03-08T02:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。