論文の概要: Blackbox Post-Processing for Multiclass Fairness
- arxiv url: http://arxiv.org/abs/2201.04461v1
- Date: Wed, 12 Jan 2022 13:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 17:29:30.202489
- Title: Blackbox Post-Processing for Multiclass Fairness
- Title(参考訳): マルチクラスフェアネスのためのブラックボックスポストプロセッシング
- Authors: Preston Putzel and Scott Lee
- Abstract要約: 我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
- 参考スコア(独自算出の注目度): 1.5305403478254664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Applying standard machine learning approaches for classification can produce
unequal results across different demographic groups. When then used in
real-world settings, these inequities can have negative societal impacts. This
has motivated the development of various approaches to fair classification with
machine learning models in recent years. In this paper, we consider the problem
of modifying the predictions of a blackbox machine learning classifier in order
to achieve fairness in a multiclass setting. To accomplish this, we extend the
'post-processing' approach in Hardt et al. 2016, which focuses on fairness for
binary classification, to the setting of fair multiclass classification. We
explore when our approach produces both fair and accurate predictions through
systematic synthetic experiments and also evaluate discrimination-fairness
tradeoffs on several publicly available real-world application datasets. We
find that overall, our approach produces minor drops in accuracy and enforces
fairness when the number of individuals in the dataset is high relative to the
number of classes and protected groups.
- Abstract(参考訳): 分類に標準的な機械学習アプローチを適用すると、異なる集団間で不平等な結果を生み出すことができる。
現実の環境で使用すると、これらの不平等は社会に悪影響を及ぼす可能性がある。
これは近年、機械学習モデルによる公平な分類のための様々なアプローチの開発を動機付けている。
本論文では,マルチクラス設定における公平性を達成するために,ブラックボックス機械学習分類器の予測を変更する問題を考える。
そこで我々は,2進分類の公平性に着目したHardtらによる'ポストプロセッシング'アプローチを,公正なマルチクラス分類の設定にまで拡張する。
提案手法は, 体系的な合成実験により, 公正かつ正確な予測を行うとともに, 公開されている実世界のアプリケーションデータセット上での識別・公正トレードオフを評価する。
全体として,本手法は,クラス数や保護グループ数に対して,データセット内の個体数が高い場合に,精度を低下させ,公平性を高める。
関連論文リスト
- Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。