論文の概要: Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access
- arxiv url: http://arxiv.org/abs/2302.01385v2
- Date: Thu, 21 Mar 2024 04:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 20:39:25.453126
- Title: Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access
- Title(参考訳): 感性属性アクセスのない公平な分類のためのハイパーパラメータチューニング
- Authors: Akshaj Kumar Veldanda, Ivan Brugere, Sanghamitra Dutta, Alan Mishler, Siddharth Garg,
- Abstract要約: トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
- 参考スコア(独自算出の注目度): 12.447577504758485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair machine learning methods seek to train models that balance model performance across demographic subgroups defined over sensitive attributes like race and gender. Although sensitive attributes are typically assumed to be known during training, they may not be available in practice due to privacy and other logistical concerns. Recent work has sought to train fair models without sensitive attributes on training data. However, these methods need extensive hyper-parameter tuning to achieve good results, and hence assume that sensitive attributes are known on validation data. However, this assumption too might not be practical. Here, we propose Antigone, a framework to train fair classifiers without access to sensitive attributes on either training or validation data. Instead, we generate pseudo sensitive attributes on the validation data by training a biased classifier and using the classifier's incorrectly (correctly) labeled examples as proxies for minority (majority) groups. Since fairness metrics like demographic parity, equal opportunity and subgroup accuracy can be estimated to within a proportionality constant even with noisy sensitive attribute information, we show theoretically and empirically that these proxy labels can be used to maximize fairness under average accuracy constraints. Key to our results is a principled approach to select the hyper-parameters of the biased classifier in a completely unsupervised fashion (meaning without access to ground truth sensitive attributes) that minimizes the gap between fairness estimated using noisy versus ground-truth sensitive labels.
- Abstract(参考訳): 公正な機械学習手法は、人種や性別といったセンシティブな属性に基づいて定義された人口動態サブグループ間でモデルパフォーマンスのバランスをとるモデルを訓練しようとする。
敏感な属性は通常、トレーニング中に知られていると仮定されるが、プライバシやその他の論理的懸念のため、実際には利用できない可能性がある。
最近の研究は、トレーニングデータに敏感な属性を持たずに公正なモデルをトレーニングしようと試みている。
しかし、これらの手法は、良好な結果を得るために広範囲なハイパーパラメータチューニングを必要とし、したがって、機密属性が検証データで知られていると仮定する。
しかし、この仮定も現実的ではないかもしれない。
ここでは、トレーニングデータや検証データに対して、機密属性にアクセスせずに公平な分類器を訓練するフレームワークであるAntigoneを提案する。
その代わりに、偏見付き分類器を訓練し、少数派(多数派)群のプロキシとして誤って(正しく)ラベル付けされた例を用いて検証データに擬似的な属性を生成する。
人口統計値,均等機会,サブグループ精度などのフェアネス指標は,ノイズに敏感な属性情報であっても比例定数で推定できるため,これらのプロキシラベルは平均的精度制約下でのフェアネスを最大化するために有効であることを示す理論的かつ実証的な方法である。
本結果の鍵となるのが, 偏差分級器の超パラメータを非教師的手法で選択する原理的手法であり, ノイズと地味感性ラベルを用いて推定した公平性の間のギャップを最小化する。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Tune it the Right Way: Unsupervised Validation of Domain Adaptation via
Soft Neighborhood Density [125.64297244986552]
本稿では,点間の類似度分布のエントロピーを計算し,ソフト近傍の密度を測定する教師なし検証基準を提案する。
私たちの基準は、競合する検証方法よりもシンプルですが、より効果的です。
論文 参考訳(メタデータ) (2021-08-24T17:41:45Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。