論文の概要: When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2207.08336v2
- Date: Mon, 29 May 2023 19:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 02:57:12.614626
- Title: When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes
- Title(参考訳): 公平がプライバシーを満たす: 半プライベートな機密属性による公正な分類
- Authors: Canyu Chen, Yueqing Liang, Xiongxiao Xu, Shangyu Xie, Ashish Kundu,
Ali Payani, Yuan Hong, Kai Shu
- Abstract要約: 半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
- 参考スコア(独自算出の注目度): 18.221858247218726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have demonstrated promising performance in many
areas. However, the concerns that they can be biased against specific
demographic groups hinder their adoption in high-stake applications. Thus, it
is essential to ensure fairness in machine learning models. Most previous
efforts require direct access to sensitive attributes for mitigating bias.
Nonetheless, it is often infeasible to obtain large-scale users' sensitive
attributes considering users' concerns about privacy in the data collection
process. Privacy mechanisms such as local differential privacy (LDP) are widely
enforced on sensitive information in the data collection stage due to legal
compliance and people's increasing awareness of privacy. Therefore, a critical
problem is how to make fair predictions under privacy. We study a novel and
practical problem of fair classification in a semi-private setting, where most
of the sensitive attributes are private and only a small amount of clean ones
are available. To this end, we propose a novel framework FairSP that can
achieve Fair prediction under the Semi-Private setting. First, FairSP learns to
correct the noise-protected sensitive attributes by exploiting the limited
clean sensitive attributes. Then, it jointly models the corrected and clean
data in an adversarial way for debiasing and prediction. Theoretical analysis
shows that the proposed model can ensure fairness under mild assumptions in the
semi-private setting. Extensive experimental results on real-world datasets
demonstrate the effectiveness of our method for making fair predictions under
privacy and maintaining high accuracy.
- Abstract(参考訳): 機械学習モデルは、多くの分野で有望なパフォーマンスを示している。
しかし、特定の人口集団に偏りがあるという懸念は、高い評価のアプリケーションでの採用を妨げる。
したがって、機械学習モデルの公平性を保証することが不可欠である。
これまでの取り組みのほとんどは、バイアスを軽減するために機密属性に直接アクセスする必要がある。
それでも、データ収集プロセスにおけるユーザのプライバシに関する懸念を考慮して、大規模なユーザの機密属性を取得することは不可能であることが多い。
ローカルディファレンシャルプライバシ(LDP)のようなプライバシメカニズムは、法的コンプライアンスと人々のプライバシに対する認識の高まりにより、データ収集段階で機密情報に広く適用されている。
したがって、重要な問題は、プライバシーの下で公正な予測をする方法である。
半私的環境での公平な分類の新規かつ実践的な問題について検討し, 感度特性の大部分がプライベートであり, ごく少量のクリーンなものしか利用できない。
そこで,本稿では,半プライベート環境下で公正な予測を実現するための新しいフレームワークfairspを提案する。
まず、FairSPは、ノイズ保護された機密属性を、限られたクリーンな機密属性を利用して修正することを学ぶ。
そして、補正されたデータとクリーンなデータを、デバイアスと予測のために逆さまにモデル化する。
理論解析により,提案モデルが半私的条件下での軽微な仮定の下での公平性を保証することを示す。
実世界のデータセットに関する広範囲な実験結果は,プライバシの下で公正な予測を行い,高い精度を維持するための手法の有効性を実証する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。