論文の概要: How Biased is Your Feature?: Computing Fairness Influence Functions with
Global Sensitivity Analysis
- arxiv url: http://arxiv.org/abs/2206.00667v1
- Date: Wed, 1 Jun 2022 04:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:23:05.157825
- Title: How Biased is Your Feature?: Computing Fairness Influence Functions with
Global Sensitivity Analysis
- Title(参考訳): あなたの機能はどのくらいバイアスか?
グローバル感性分析による公正影響関数の計算
- Authors: Bishwamittra Ghosh, Debabrota Basu, Kuldeep S. Meel
- Abstract要約: 機械学習の公正性は、機械学習がハイテイクな意思決定タスクに広く適用されているために、重要な焦点を成している。
本稿では,Fairness Influence Function (FIF) の枠組みを提案し,それを分類器の予測における条件変数のスケール差として計算する。
また,特徴のサブセット間の分散分解と局所回帰器を用いてFIFを正確に計算するアルゴリズムであるFairXplainerをインスタンス化する。
- 参考スコア(独自算出の注目度): 38.482411134083236
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness in machine learning has attained significant focus due to the
widespread application of machine learning in high-stake decision-making tasks.
Unless regulated with a fairness objective, machine learning classifiers might
demonstrate unfairness/bias towards certain demographic populations in the
data. Thus, the quantification and mitigation of the bias induced by
classifiers have become a central concern. In this paper, we aim to quantify
the influence of different features on the bias of a classifier. To this end,
we propose a framework of Fairness Influence Function (FIF), and compute it as
a scaled difference of conditional variances in the prediction of the
classifier. We also instantiate an algorithm, FairXplainer, that uses variance
decomposition among the subset of features and a local regressor to compute
FIFs accurately, while also capturing the intersectional effects of the
features. Our experimental analysis validates that FairXplainer captures the
influences of both individual features and higher-order feature interactions,
estimates the bias more accurately than existing local explanation methods, and
detects the increase/decrease in bias due to affirmative/punitive actions in
the classifier.
- Abstract(参考訳): 機械学習の公平性は、高リスク意思決定タスクにおける機械学習の広範な適用によって、大きな注目を集めている。
公平さを目標としない限り、機械学習分類器はデータの特定の人口に対して不公平さ/バイアスを示す可能性がある。
したがって、分類器によって誘導されるバイアスの定量化と緩和が中心的な関心事となっている。
本稿では,分類器のバイアスに対する異なる特徴の影響を定量化することを目的としている。
そこで本研究では,公平性影響関数(fif)の枠組みを提案し,分類器の予測における条件分散のスケールド差分として計算する。
また,特徴のサブセット間の分散分解と局所回帰器を用いてFIFを正確に計算するアルゴリズムであるFairXplainerをインスタンス化し,特徴の交叉効果を捉える。
実験により,FairXplainerは個々の特徴と高次特徴相互作用の影響を捕捉し,既存の局所的説明法よりも高精度にバイアスを推定し,分類器における肯定的/疑似行動によるバイアスの増加/減少を検出する。
関連論文リスト
- Balancing Fairness and Accuracy in Data-Restricted Binary Classification [14.439413517433891]
本稿では,4つの実践シナリオ下での精度と公平性のトレードオフをモデル化する枠組みを提案する。
3つのデータセットの実験では、トレードオフを定量化するためのツールとして提案されたフレームワークの有用性が示されている。
論文 参考訳(メタデータ) (2024-03-12T15:01:27Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Evaluating Fairness of Machine Learning Models Under Uncertain and
Incomplete Information [25.739240011015923]
属性分類器のテスト精度は下流モデルにおけるバイアス推定の有効性と常に相関しているとは限らない。
我々の分析は,属性分類器の誤りを可能な限り不均一に分配したいという状況において,意外かつ直感的な意味を持っている。
論文 参考訳(メタデータ) (2021-02-16T19:02:55Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。