論文の概要: How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis
- arxiv url: http://arxiv.org/abs/2206.00667v3
- Date: Mon, 3 Jul 2023 00:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:07:09.733591
- Title: How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis
- Title(参考訳): あなたの機能はどのくらいバイアスか?
グローバル感性分析による公正影響関数の計算
- Authors: Bishwamittra Ghosh, Debabrota Basu, Kuldeep S. Meel
- Abstract要約: 機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
- 参考スコア(独自算出の注目度): 38.482411134083236
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness in machine learning has attained significant focus due to the
widespread application in high-stake decision-making tasks. Unregulated machine
learning classifiers can exhibit bias towards certain demographic groups in
data, thus the quantification and mitigation of classifier bias is a central
concern in fairness in machine learning. In this paper, we aim to quantify the
influence of different features in a dataset on the bias of a classifier. To do
this, we introduce the Fairness Influence Function (FIF). This function breaks
down bias into its components among individual features and the intersection of
multiple features. The key idea is to represent existing group fairness metrics
as the difference of the scaled conditional variances in the classifier's
prediction and apply a decomposition of variance according to global
sensitivity analysis. To estimate FIFs, we instantiate an algorithm
FairXplainer that applies variance decomposition of classifier's prediction
following local regression. Experiments demonstrate that FairXplainer captures
FIFs of individual feature and intersectional features, provides a better
approximation of bias based on FIFs, demonstrates higher correlation of FIFs
with fairness interventions, and detects changes in bias due to fairness
affirmative/punitive actions in the classifier.
The code is available at https://github.com/ReAILe/bias-explainer.
- Abstract(参考訳): 機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、重要な焦点となった。
非規制機械学習分類器は、データ中の特定の人口集団に対する偏見を示すことができるため、分類器バイアスの定量化と緩和は、機械学習における公平性の中心的な関心事である。
本稿では,データセットの異なる特徴が分類器のバイアスに与える影響を定量化することを目的とする。
これを実現するために、Fairness Influence Function (FIF)を紹介する。
この関数は、個々の特徴と複数の特徴の交叉の間のコンポーネントにバイアスを分解する。
鍵となるアイデアは、分類器の予測におけるスケールされた条件付き分散の差として既存のグループフェアネスメトリクスを表現し、大域的感度分析に従って分散の分解を適用することである。
fifを推定するために,局所回帰による分類器予測の分散分解を適用するアルゴリズムfairxplainerをインスタンス化する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
コードはhttps://github.com/reaile/bias-explainerで入手できる。
関連論文リスト
- Balancing Fairness and Accuracy in Data-Restricted Binary Classification [14.439413517433891]
本稿では,4つの実践シナリオ下での精度と公平性のトレードオフをモデル化する枠組みを提案する。
3つのデータセットの実験では、トレードオフを定量化するためのツールとして提案されたフレームワークの有用性が示されている。
論文 参考訳(メタデータ) (2024-03-12T15:01:27Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Evaluating Fairness of Machine Learning Models Under Uncertain and
Incomplete Information [25.739240011015923]
属性分類器のテスト精度は下流モデルにおけるバイアス推定の有効性と常に相関しているとは限らない。
我々の分析は,属性分類器の誤りを可能な限り不均一に分配したいという状況において,意外かつ直感的な意味を持っている。
論文 参考訳(メタデータ) (2021-02-16T19:02:55Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。