論文の概要: xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes
- arxiv url: http://arxiv.org/abs/2110.01109v1
- Date: Sun, 3 Oct 2021 22:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:13:53.887744
- Title: xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes
- Title(参考訳): xfair: 保護属性のモデルベースリバランスによる公平性の向上
- Authors: Kewen Peng, Joymallya Chakraborty, Tim Menzies
- Abstract要約: 機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
- 参考スコア(独自算出の注目度): 15.525314212209564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning software can generate models that inappropriately
discriminate against specific protected social groups (e.g., groups based on
gender, ethnicity, etc). Motivated by those results, software engineering
researchers have proposed many methods for mitigating those discriminatory
effects. While those methods are effective in mitigating bias, few of them can
provide explanations on what is the cause of bias. Here we propose xFAIR, a
model-based extrapolation method, that is capable of both mitigating bias and
explaining the cause. In our xFAIR approach, protected attributes are
represented by models learned from the other independent variables (and these
models offer extrapolations over the space between existing examples). We then
use the extrapolation models to relabel protected attributes, which aims to
offset the biased predictions of the classification model via rebalancing the
distribution of protected attributes. The experiments of this paper show that,
without compromising(original) model performance,xFAIRcan achieve significantly
better group and individual fairness (as measured in different metrics)than
benchmark methods. Moreover, when compared to another instance-based
rebalancing method, our model-based approach shows faster runtime and thus
better scalability
- Abstract(参考訳): 機械学習ソフトウェアは、特定の保護された社会グループ(例えば、性別、民族などに基づくグループ)に対して不適切に識別するモデルを生成することができる。
これらの結果に触発され、ソフトウェア工学研究者はこれらの差別効果を緩和する多くの方法を提案した。
これらの手法は偏見を緩和するのに有効であるが、偏見の原因を説明できるものはほとんどない。
本稿では,バイアス軽減と原因説明の両立が可能なモデルベース外挿法であるxfairを提案する。
当社のxFAIRアプローチでは、保護された属性は、他の独立した変数から学んだモデルによって表現されます。
次に,保護属性の分布の再バランスを通じて,分類モデルの偏りのある予測を相殺することを目的とした,relabel保護属性の補間モデルを用いた。
この実験により,xFAIRcanは,従来のモデル性能を損なうことなく,ベンチマーク法により,グループと個体の公平性(測定値)を著しく向上することを示した。
さらに、他のインスタンスベースのリバランス手法と比較すると、モデルベースのアプローチは実行速度が速く、スケーラビリティも向上しています。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation [3.548416925804316]
この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
論文 参考訳(メタデータ) (2021-04-01T15:06:13Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。