論文の概要: Fairness Implications of Encoding Protected Categorical Attributes
- arxiv url: http://arxiv.org/abs/2201.11358v2
- Date: Fri, 5 May 2023 22:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 01:22:51.424136
- Title: Fairness Implications of Encoding Protected Categorical Attributes
- Title(参考訳): 保護カテゴリー属性の符号化の公平性
- Authors: Carlos Mougan, Jose M. Alvarez, Salvatore Ruggieri, Steffen Staab
- Abstract要約: エンコード法として,エンコード法とエンフターゲット法という,よく知られた2種類の符号化手法の精度と妥当性を比較した。
第1のタイプは、テキスト可読バイアス(textitirredible bias)であり、第2のタイプは、統計的に表現されていないグループの大きなばらつきによるものである。
機械学習のベストプラクティスがいくつかのカテゴリ属性を高次心機能に符号化することで、パフォーマンス対策を改善する際に生じる交叉不公平さの問題を考察する。
- 参考スコア(独自算出の注目度): 26.7015058286397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Past research has demonstrated that the explicit use of protected attributes
in machine learning can improve both performance and fairness. Many machine
learning algorithms, however, cannot directly process categorical attributes,
such as country of birth or ethnicity. Because protected attributes frequently
are categorical, they must be encoded as features that can be input to a chosen
machine learning algorithm, e.g.\ support vector machines, gradient boosting
decision trees or linear models. Thereby, encoding methods influence how and
what the machine learning algorithm will learn, affecting model performance and
fairness. This work compares the accuracy and fairness implications of the two
most well-known encoding methods: \emph{one-hot encoding} and \emph{target
encoding}. We distinguish between two types of induced bias that may arise from
these encoding methods and may lead to unfair models. The first type,
\textit{irreducible bias}, is due to direct group category discrimination, and
the second type, \textit{reducible bias}, is due to the large variance in
statistically underrepresented groups. We investigate the interaction between
categorical encodings and target encoding regularization methods that reduce
unfairness. Furthermore, we consider the problem of intersectional unfairness
that may arise when machine learning best practices improve performance
measures by encoding several categorical attributes into a high-cardinality
feature.
- Abstract(参考訳): 過去の研究では、機械学習における保護属性の明示的な使用は、パフォーマンスと公平性の両方を改善することが示されている。
しかし、多くの機械学習アルゴリズムは、出生国や民族などのカテゴリー属性を直接処理することはできない。
保護された属性はカテゴリ的であるため、例えば、サポートベクターマシン、勾配ブースティング決定木、線形モデルなど、選択された機械学習アルゴリズムに入力可能な特徴としてエンコードする必要がある。
これにより、機械学習アルゴリズムの学習方法や学習内容にエンコード手法が影響し、モデルの性能や公平性に影響を及ぼす。
この研究は、最もよく知られた符号化方法である \emph{one-hot encoding} と \emph{target encoding} の精度と公平性を比較した。
これらの符号化法から生じる2種類の誘導バイアスを区別し、不公平なモデルにつながる可能性がある。
第1の型である \textit{irreducible bias} は直接群分類によるものであり、第2の型である \textit{reducible bias} は統計的に表現されていない群の大きなばらつきによるものである。
分類的エンコーディングと対象エンコーディングの相互作用について検討し,不公平さを低減する。
さらに,機械学習のベストプラクティスがいくつかのカテゴリ属性を高次心機能に符号化することで,パフォーマンス対策を改善する際に生じる交叉不公平さの問題を考察する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Learning Disentangled Textual Representations via Statistical Measures
of Similarity [35.74568888409149]
トレーニングを必要としない不整合表現を学習するための正規化器のファミリーを導入する。
我々の新しい正規化器は、追加のトレーニングを必要とせず、より速く、追加のチューニングを伴わない。
論文 参考訳(メタデータ) (2022-05-07T08:06:22Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。