論文の概要: On Fair Classification with Mostly Private Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2207.08336v1
- Date: Mon, 18 Jul 2022 01:10:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 02:01:53.909134
- Title: On Fair Classification with Mostly Private Sensitive Attributes
- Title(参考訳): 主観的属性を用いた公平な分類について
- Authors: Canyu Chen, Yueqing Liang, Xiongxiao Xu, Shangyu Xie, Yuan Hong, Kai
Shu
- Abstract要約: 半私的環境での公平な分類に関する新しい問題について検討する。
センシティブな属性のほとんどはプライベートであり、わずかな量のクリーンな属性しか利用できない。
本稿では,プライバシ保証の下でノイズに敏感な属性の修正を学習する新しいフレームワークであるFairSPを提案する。
- 参考スコア(独自算出の注目度): 19.858825899838013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have demonstrated promising performance in many
areas. However, the concerns that they can be biased against specific groups
hinder their adoption in high-stake applications. Thus it is essential to
ensure fairness in machine learning models. Most of the previous efforts
require access to sensitive attributes for mitigating bias. Nonetheless, it is
often infeasible to obtain large scale of data with sensitive attributes due to
people's increasing awareness of privacy and the legal compliance. Therefore,
an important research question is how to make fair predictions under privacy?
In this paper, we study a novel problem on fair classification in a
semi-private setting, where most of the sensitive attributes are private and
only a small amount of clean sensitive attributes are available. To this end,
we propose a novel framework FairSP that can first learn to correct the noisy
sensitive attributes under privacy guarantee via exploiting the limited clean
sensitive attributes. Then, it jointly models the corrected and clean data in
an adversarial way for debiasing and prediction. Theoretical analysis shows
that the proposed model can ensure fairness when most of the sensitive
attributes are private. Experimental results on real-world datasets demonstrate
the effectiveness of the proposed model for making fair predictions under
privacy and maintaining high accuracy.
- Abstract(参考訳): 機械学習モデルは、多くの分野で有望なパフォーマンスを示している。
しかし、特定のグループに対してバイアスがかかるという懸念は、高い評価のアプリケーションでの採用を妨げる。
したがって、機械学習モデルの公平性を保証することが不可欠である。
これまでの取り組みのほとんどは、バイアスを軽減するためのセンシティブな属性へのアクセスを必要としていた。
にもかかわらず、プライバシーや法的コンプライアンスに対する意識の高まりにより、機密性の高い属性を持つ大規模なデータを得ることは不可能であることが多い。
したがって、重要な研究課題は、プライバシーの下で公平な予測をする方法である。
本稿では,機密性の高い属性のほとんどがプライベートであり,かつ少量のクリーンな機密属性しか利用できない半プライベートな設定において,公平な分類に関する新しい問題について検討する。
そこで本研究では,プライバシ保証下でのノイズに敏感な属性の修正を,限られた清潔な属性を活用できる新しいフレームワークであるFairSPを提案する。
そして、補正されたデータとクリーンなデータを、デバイアスと予測のために逆さまにモデル化する。
理論解析により, 感度の高い属性のほとんどがプライベートである場合, 提案モデルによって公平性が確保できることが示された。
実世界のデータセットに対する実験結果は、プライバシの下で公正な予測を行い、高精度を維持するためのモデルの有効性を示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。