論文の概要: Fairness implications of encoding protected categorical attributes
- arxiv url: http://arxiv.org/abs/2201.11358v1
- Date: Thu, 27 Jan 2022 07:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:46:07.219953
- Title: Fairness implications of encoding protected categorical attributes
- Title(参考訳): 保護カテゴリー属性の符号化の公平性
- Authors: Carlos Mougan, Jose M. Alvarez, Gourab K Patro, Salvatore Ruggieri,
Steffen Staab
- Abstract要約: カテゴリ的特徴符号化は、モデルの性能と公平性に直接的な影響を与える。
我々は、最もよく知られたエンコーダであるワンホットエンコーディングとターゲットエンコーダの精度と公平さを比較した。
両種類の偏見を増大させるため, 公平性への影響について検討する。
- 参考スコア(独自算出の注目度): 26.568516119597398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protected attributes are often presented as categorical features that need to
be encoded before feeding them into a machine learning algorithm. Encoding
these attributes is paramount as they determine the way the algorithm will
learn from the data. Categorical feature encoding has a direct impact on the
model performance and fairness. In this work, we compare the accuracy and
fairness implications of the two most well-known encoders: one-hot encoding and
target encoding. We distinguish between two types of induced bias that can
arise while using these encodings and can lead to unfair models. The first
type, irreducible bias, is due to direct group category discrimination and a
second type, reducible bias, is due to large variance in less statistically
represented groups. We take a deeper look into how regularization methods for
target encoding can improve the induced bias while encoding categorical
features. Furthermore, we tackle the problem of intersectional fairness that
arises when mixing two protected categorical features leading to higher
cardinality. This practice is a powerful feature engineering technique used for
boosting model performance. We study its implications on fairness as it can
increase both types of induced bias
- Abstract(参考訳): 保護された属性は、機械学習アルゴリズムに与える前にエンコードする必要があるカテゴリの特徴として提示されることが多い。
これらの属性をエンコーディングすることは、アルゴリズムがデータから学ぶ方法を決定する上で最重要である。
分類学的特徴エンコーディングは、モデルの性能と公平性に直接影響を与える。
本研究では、最もよく知られたエンコーダであるワンホットエンコーディングとターゲットエンコーダの精度と公平性を比較検討する。
これらの符号化を用いて生じる2種類の誘導バイアスを区別し、不公平なモデルに導く。
第1の型である既約バイアスは、直接群分類によるものであり、第2の型である既約バイアスは、より統計的に表現されたグループにおいて大きなばらつきによるものである。
対象符号化の正規化手法が,分類学的特徴を符号化しながら誘導バイアスを改善する方法について,より深く検討する。
さらに、2つの保護されたカテゴリー的特徴を混合して高い濃度に導く際に生じる交叉フェアネスの問題に取り組む。
このプラクティスは,モデルのパフォーマンス向上に使用される強力な機能エンジニアリングテクニックである。
両種類の誘導バイアスを増大させるため, 公平性に対する影響について検討する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Learning Disentangled Textual Representations via Statistical Measures
of Similarity [35.74568888409149]
トレーニングを必要としない不整合表現を学習するための正規化器のファミリーを導入する。
我々の新しい正規化器は、追加のトレーニングを必要とせず、より速く、追加のチューニングを伴わない。
論文 参考訳(メタデータ) (2022-05-07T08:06:22Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。