論文の概要: Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation
- arxiv url: http://arxiv.org/abs/2312.15994v1
- Date: Tue, 26 Dec 2023 10:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:20:42.393764
- Title: Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation
- Title(参考訳): proxy sensitive attribute label 生成によるバイアス緩和
- Authors: Bhushan Chaudhary, Anubha Pandey, Deepak Bhatt, Darshika Tiwari
- Abstract要約: 本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Addressing bias in the trained machine learning system often requires access
to sensitive attributes. In practice, these attributes are not available either
due to legal and policy regulations or data unavailability for a given
demographic. Existing bias mitigation algorithms are limited in their
applicability to real-world scenarios as they require access to sensitive
attributes to achieve fairness. In this research work, we aim to address this
bottleneck through our proposed unsupervised proxy-sensitive attribute label
generation technique. Towards this end, we propose a two-stage approach of
unsupervised embedding generation followed by clustering to obtain
proxy-sensitive labels. The efficacy of our work relies on the assumption that
bias propagates through non-sensitive attributes that are correlated to the
sensitive attributes and, when mapped to the high dimensional latent space,
produces clusters of different demographic groups that exist in the data.
Experimental results demonstrate that bias mitigation using existing algorithms
such as Fair Mixup and Adversarial Debiasing yields comparable results on
derived proxy labels when compared against using true sensitive attributes.
- Abstract(参考訳): トレーニングされた機械学習システムのバイアスに対処するには、敏感な属性にアクセスする必要があることが多い。
実際には、これらの属性は、法律やポリシーの規則や、特定の人口統計学で利用できないデータのために利用できない。
既存のバイアス緩和アルゴリズムは、公平性を達成するためにセンシティブな属性にアクセスする必要があるため、現実のシナリオに適用性に制限がある。
本研究では,このボトルネックに対処するために,教師なしプロキシ依存属性ラベル生成手法を提案する。
そこで本研究では,非教師付き埋め込み生成とクラスタリングによる2段階のアプローチを提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感受性属性を通して伝播し、高次元の潜在空間にマッピングされると、データに存在する異なる人口集団のクラスタが生成されるという仮定に依存する。
実験結果から,Fair Mixup や Adversarial Debiasing などの既存アルゴリズムを用いたバイアス緩和は,真の感度特性と比較した場合,導出されたプロキシラベルと同等の結果が得られることが示された。
関連論文リスト
- Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access [12.447577504758485]
トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
論文 参考訳(メタデータ) (2023-02-02T19:45:50Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。