論文の概要: Neither Private Nor Fair: Impact of Data Imbalance on Utility and
Fairness in Differential Privacy
- arxiv url: http://arxiv.org/abs/2009.06389v3
- Date: Sat, 3 Oct 2020 11:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 02:33:46.583037
- Title: Neither Private Nor Fair: Impact of Data Imbalance on Utility and
Fairness in Differential Privacy
- Title(参考訳): プライベート・ノーフェアも:データ不均衡が差別プライバシーの実用性と公正性に及ぼす影響
- Authors: Tom Farrand, Fatemehsadat Mireshghallah, Sahib Singh, Andrew Trask
- Abstract要約: 本研究では,データの不均衡レベルの違いが,モデルによる決定の正確性と公平性に与える影響について検討する。
私たちは、小さな不均衡やプライバシー保証の緩やかささえも、異なる影響を引き起こすことを実証しています。
- 参考スコア(独自算出の注目度): 5.416049433853457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deployment of deep learning in different fields and industries is growing day
by day due to its performance, which relies on the availability of data and
compute. Data is often crowd-sourced and contains sensitive information about
its contributors, which leaks into models that are trained on it. To achieve
rigorous privacy guarantees, differentially private training mechanisms are
used. However, it has recently been shown that differential privacy can
exacerbate existing biases in the data and have disparate impacts on the
accuracy of different subgroups of data. In this paper, we aim to study these
effects within differentially private deep learning. Specifically, we aim to
study how different levels of imbalance in the data affect the accuracy and the
fairness of the decisions made by the model, given different levels of privacy.
We demonstrate that even small imbalances and loose privacy guarantees can
cause disparate impacts.
- Abstract(参考訳): さまざまな分野や産業におけるディープラーニングの展開は、データと計算の可用性に依存するパフォーマンスのため、日々成長している。
データはしばしばクラウドソースされ、そのコントリビューターに関する機密情報を含んでいる。
厳密なプライバシー保証を実現するために、異なるプライベートトレーニング機構が使用される。
しかし、ディファレンシャルプライバシがデータ内の既存のバイアスを悪化させ、異なるサブグループのデータの精度に異なる影響を与えることが最近示されている。
本稿では,これらの効果を微分プライベート深層学習で研究することを目的とする。
具体的には,データの不均衡レベルの違いが,モデルによる決定の正確性や公平性にどのように影響するかを検討する。
我々は、小さな不均衡と緩いプライバシー保証さえも、異なる影響を引き起こす可能性があることを実証する。
関連論文リスト
- A Systematic and Formal Study of the Impact of Local Differential Privacy on Fairness: Preliminary Results [5.618541935188389]
差分プライバシー(DP)は、プライバシ保護機械学習(ML)アルゴリズムの主要なソリューションである。
近年の研究では、ローカルDPが個人の異なるサブグループに対するML予測に影響を及ぼすことが示されている。
ローカルDPの下でのMLモデルによる決定の公平性は,プライバシやデータ分布の異なるレベルにおいてどのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-05-23T15:54:03Z) - Federated Learning with Differential Privacy [0.9208007322096533]
フェデレートラーニング(FL)は、クライアントのプライベートデータを異なるパーティ間で共有することを防ぐ能力を持つ。
プライベート情報は、クライアントからアップロードされたパラメータの重みを分析することで、いまだに拡散することができる。
この結果から,非i.dおよび小データセットは,分散および微分プライベートな設定において,最も性能が低下していることが示唆された。
論文 参考訳(メタデータ) (2024-02-03T18:21:38Z) - Delete My Account: Impact of Data Deletion on Machine Learning
Classifiers [0.0]
消去の権利は、ビッグデータや機械学習など、さまざまな分野に潜在的に影響する可能性がある。
本稿では,機械学習モデルの性能に及ぼす消去権の利用の影響を詳細に分析する。
論文 参考訳(メタデータ) (2023-11-17T08:23:17Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Differentially Private Deep Learning under the Fairness Lens [34.28936739262812]
微分プライバシー(DP)は、プライベート機械学習システムにとって重要なプライバシー強化技術である。
計算に個々の参加に伴うリスクを計測し、バウンドすることができる。
近年,DP学習システムは,個人集団の偏見や不公平性を悪化させる可能性が指摘されている。
論文 参考訳(メタデータ) (2021-06-04T19:10:09Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。