論文の概要: Learning Fair Classifiers via Min-Max F-divergence Regularization
- arxiv url: http://arxiv.org/abs/2306.16552v1
- Date: Wed, 28 Jun 2023 20:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:36:10.146889
- Title: Learning Fair Classifiers via Min-Max F-divergence Regularization
- Title(参考訳): min-max f-divergence正規化による学習フェア分類
- Authors: Meiyu Zhong, Ravi Tandon
- Abstract要約: 公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
- 参考スコア(独自算出の注目度): 13.81078324883519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) based systems are adopted in domains such as law
enforcement, criminal justice, finance, hiring and admissions, ensuring the
fairness of ML aided decision-making is becoming increasingly important. In
this paper, we focus on the problem of fair classification, and introduce a
novel min-max F-divergence regularization framework for learning fair
classification models while preserving high accuracy. Our framework consists of
two trainable networks, namely, a classifier network and a bias/fairness
estimator network, where the fairness is measured using the statistical notion
of F-divergence. We show that F-divergence measures possess convexity and
differentiability properties, and their variational representation make them
widely applicable in practical gradient based training methods. The proposed
framework can be readily adapted to multiple sensitive attributes and for high
dimensional datasets. We study the F-divergence based training paradigm for two
types of group fairness constraints, namely, demographic parity and equalized
odds. We present a comprehensive set of experiments for several real-world data
sets arising in multiple domains (including COMPAS, Law Admissions, Adult
Income, and CelebA datasets). To quantify the fairness-accuracy tradeoff, we
introduce the notion of fairness-accuracy receiver operating characteristic
(FA-ROC) and a corresponding \textit{low-bias} FA-ROC, which we argue is an
appropriate measure to evaluate different classifiers. In comparison to several
existing approaches for learning fair classifiers (including pre-processing,
post-processing and other regularization methods), we show that the proposed
F-divergence based framework achieves state-of-the-art performance with respect
to the trade-off between accuracy and fairness.
- Abstract(参考訳): 機械学習(ML)ベースのシステムは、法執行機関、刑事司法、財務、雇用、入場などの分野で採用されているため、機械学習支援による意思決定の公正性がますます重要になっている。
本稿では, 公平な分類の問題に焦点をあて, 高い精度を維持しつつ, 公平な分類モデルを学ぶための min-max F-divergence regularization framework を導入する。
このフレームワークは,2つの学習可能なネットワーク,すなわち分類器ネットワークとバイアス/フェアネス推定ネットワークから成り,f-ダイバージェンスの統計的概念を用いてフェアネスを計測する。
その結果,f-divergence測度は凸性と微分可能性特性を有し,その変動表現は実用的勾配に基づく学習法に広く適用できることがわかった。
提案するフレームワークは、複数の機密属性や高次元データセットに容易に適応できる。
グループフェアネス制約,すなわち人口格差と等化確率の2種類のグループフェアネス制約に対するF偏差に基づくトレーニングパラダイムについて検討する。
本稿では,複数の領域(コンパス,法律加入,成人所得,セロバデータセットなど)で発生する実世界のデータセットについて,総合的な実験を行う。
フェアネス精度のトレードオフを定量化するために、フェアネス精度の受信機動作特性 (FA-ROC) とそれに対応する 'textit{low-bias} FA-ROC の概念を導入する。
フェア分類器(前処理,後処理,その他の正規化手法を含む)を学習するためのいくつかの既存手法と比較して,提案手法は,精度と公正性のトレードオフに関して,最先端の性能を実現する。
関連論文リスト
- Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。