論文の概要: Fairness Issues and Mitigations in (Differentially Private) Socio-demographic Data Processes
- arxiv url: http://arxiv.org/abs/2408.08471v1
- Date: Fri, 16 Aug 2024 01:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:59:46.065779
- Title: Fairness Issues and Mitigations in (Differentially Private) Socio-demographic Data Processes
- Title(参考訳): 社会デミノグラフィーデータプロセスの公正性問題と緩和
- Authors: Joonhyuk Ko, Juba Ziani, Saswat Das, Matt Williams, Ferdinando Fioretto,
- Abstract要約: 本稿では,グループレベルの推定値に不均一に影響を及ぼすサンプリング誤差について,重要な社会的関連性を調査した。
そこで本研究では,現実のサーベイ設計プロセスに基づく最適化手法を提案する。
サンプリングレートを決定するために使用されるプライバシー保護手法は、これらの公平性問題にさらに影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 43.07159967207698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical agencies rely on sampling techniques to collect socio-demographic data crucial for policy-making and resource allocation. This paper shows that surveys of important societal relevance introduce sampling errors that unevenly impact group-level estimates, thereby compromising fairness in downstream decisions. To address these issues, this paper introduces an optimization approach modeled on real-world survey design processes, ensuring sampling costs are optimized while maintaining error margins within prescribed tolerances. Additionally, privacy-preserving methods used to determine sampling rates can further impact these fairness issues. The paper explores the impact of differential privacy on the statistics informing the sampling process, revealing a surprising effect: not only the expected negative effect from the addition of noise for differential privacy is negligible, but also this privacy noise can in fact reduce unfairness as it positively biases smaller counts. These findings are validated over an extensive analysis using datasets commonly applied in census statistics.
- Abstract(参考訳): 統計機関は、政策作成と資源配分に不可欠な社会デコグラフィーデータを収集するためにサンプリング技術に依存している。
本稿では,グループレベルの推定値に不均一に影響を及ぼすサンプリングエラーを導入し,下流決定における公正さを損なうことを示す。
これらの課題に対処するため,本研究では,実世界のサーベイ設計プロセスに基づいて,所定の許容範囲内における誤差マージンを維持しつつ,サンプリングコストを最適化する最適化手法を提案する。
さらに、サンプリングレートを決定するために使われるプライバシー保護手法は、これらの公正性問題にさらに影響を及ぼす可能性がある。
本論文は,差分プライバシーがサンプリングプロセスに通知する統計に与える影響を考察し,差分プライバシに対するノイズの追加による期待される負の効果が無視可能であるだけでなく,このプライバシーノイズは,小さなカウントを正にバイアスするので,実際に不公平さを低減することができる,という驚くべき効果を明らかにした。
これらの知見は、国勢調査統計によく用いられるデータセットを用いて、広範囲な分析によって検証される。
関連論文リスト
- A Systematic and Formal Study of the Impact of Local Differential Privacy on Fairness: Preliminary Results [5.618541935188389]
差分プライバシー(DP)は、プライバシ保護機械学習(ML)アルゴリズムの主要なソリューションである。
近年の研究では、ローカルDPが個人の異なるサブグループに対するML予測に影響を及ぼすことが示されている。
ローカルDPの下でのMLモデルによる決定の公平性は,プライバシやデータ分布の異なるレベルにおいてどのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-05-23T15:54:03Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。