論文の概要: You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features
- arxiv url: http://arxiv.org/abs/2104.14537v1
- Date: Thu, 29 Apr 2021 17:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:45:51.706203
- Title: You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features
- Title(参考訳): 感情的属性なしでフェアネスを達成できる:非感覚的特徴のバイアスを探る
- Authors: Tianxiang Zhao, Enyan Dai, Kai Shu, Suhang Wang
- Abstract要約: 本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
- 参考スコア(独自算出の注目度): 29.94644351343916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though machine learning models are achieving great success, ex-tensive
studies have exposed their disadvantage of inheriting latent discrimination and
societal bias from the training data, which hinders their adoption on
high-state applications. Thus, many efforts have been taken for developing fair
machine learning models. Most of them require that sensitive attributes are
available during training to learn fair models. However, in many real-world
applications, it is usually infeasible to obtain the sensitive attribute due to
privacy or legal issues, which challenges existing fair classifiers. Though the
sensitive attribute of each data sample is unknown, we observe that there are
usually some non-sensitive features in the training data that are highly
correlated with sensitive attributes, which can be used to alleviate the bias.
Therefore, in this paper, we study a novel problem of exploring features that
are highly correlated with sensitive attributes for learning fair and accurate
classifier without sensitive attributes. We theoretically show that by
minimizing the correlation between these related features and model prediction,
we can learn a fair classifier. Based on this motivation, we propose a novel
framework which simultaneously uses these related features for accurate
prediction and regularizing the model to be fair. In addition, the model can
dynamically adjust the importance weight of each related feature to balance the
contribution of the feature on model classification and fairness. Experimental
results on real-world datasets demonstrate the effectiveness of the proposed
model for learning fair models with high classification accuracy.
- Abstract(参考訳): 機械学習モデルは大きな成功を収めていますが、過度な研究によって、トレーニングデータから潜在的差別と社会的偏見を継承する不利益が明らかになっています。
このように、公正な機械学習モデルの開発には多くの努力が払われている。
その多くは、公正なモデルを学ぶためにトレーニング中にセンシティブな属性が利用できることを要求します。
しかし、多くの現実世界のアプリケーションでは、プライバシや法的な問題によるセンシティブな属性が得られず、既存の公正な分類に挑戦する。
各データサンプルの感度特性は不明だが、トレーニングデータには通常、感度特性と高い相関性を持つ非感度の特徴がいくつか存在し、バイアスを軽減するために使用できる。
そこで本稿では, 感度属性を含まない公平かつ正確な分類法を学習するための, 感度属性と高い相関性を持つ特徴を探索する新たな課題について検討する。
これらの特徴とモデル予測の相関を最小化することで、公平な分類法を学習できることを理論的に示す。
そこで本研究では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しい枠組みを提案する。
さらに,各特徴の重要度を動的に調整することで,特徴のモデル分類と公平性への寄与度をバランスさせることができる。
実世界のデータセットにおける実験結果は,高い分類精度を持つフェアモデル学習における提案モデルの有効性を示す。
関連論文リスト
- Achieve Fairness without Demographics for Dermatological Disease
Diagnosis [17.792332189055223]
そこで本研究では,テストフェーズにおいて,そのような情報を用いることなく,感度特性の公平な予測を可能にする手法を提案する。
特徴の絡み合いが公正性に与える影響を強調した先行研究から着想を得て,重要属性や対象属性に関連する特徴を捉えることにより,モデルの特徴を高める。
これにより、機密属性に関連する機能に頼ることなく、モデルがターゲット属性に関連する機能に基づいてのみ分類できることが保証される。
論文 参考訳(メタデータ) (2024-01-16T02:49:52Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Fair Classification via Domain Adaptation: A Dual Adversarial Learning
Approach [14.344142985726853]
公平な分類のための領域適応を探求する新しい問題について検討する。
対象ドメインの公平な分類のために、ソースドメインからセンシティブな属性を適応させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T02:53:18Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Models without Sensitive Attributes: A Generative Approach [33.196044483534784]
本研究では,関係する特徴を探索することにより,重要属性を含まないフェアモデル学習の新たな課題について検討する。
トレーニングデータから感度特性を効果的に推定する確率的生成フレームワークを提案する。
実世界のデータセットを用いた実験結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-03-30T15:54:30Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。