論文の概要: FairSHAP: Preprocessing for Fairness Through Attribution-Based Data Augmentation
- arxiv url: http://arxiv.org/abs/2505.11111v1
- Date: Fri, 16 May 2025 10:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.769118
- Title: FairSHAP: Preprocessing for Fairness Through Attribution-Based Data Augmentation
- Title(参考訳): FairSHAP: 属性ベースのデータ拡張によるフェアネスの事前処理
- Authors: Lin Zhu, Yijun Bian, Lei You,
- Abstract要約: 既存の前処理アプローチでは、不公平の原因となる機能やインスタンスを特定するための透過的なメカニズムが欠如している。
FairSHAPは、Shapley値の属性を利用して、個人とグループの両方の公正性を改善する新しい前処理フレームワークである。
モデルに依存しない透明な方法として、FairSHAPは既存の機械学習パイプラインにシームレスに統合し、バイアスの原因に関する実用的な洞察を提供する。
- 参考スコア(独自算出の注目度): 8.40408650641103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in machine learning models is critical, particularly in high-stakes domains where biased decisions can lead to serious societal consequences. Existing preprocessing approaches generally lack transparent mechanisms for identifying which features or instances are responsible for unfairness. This obscures the rationale behind data modifications. We introduce FairSHAP, a novel pre-processing framework that leverages Shapley value attribution to improve both individual and group fairness. FairSHAP identifies fairness-critical instances in the training data using an interpretable measure of feature importance, and systematically modifies them through instance-level matching across sensitive groups. This process reduces discriminative risk - an individual fairness metric - while preserving data integrity and model accuracy. We demonstrate that FairSHAP significantly improves demographic parity and equality of opportunity across diverse tabular datasets, achieving fairness gains with minimal data perturbation and, in some cases, improved predictive performance. As a model-agnostic and transparent method, FairSHAP integrates seamlessly into existing machine learning pipelines and provides actionable insights into the sources of bias.Our code is on https://github.com/youlei202/FairSHAP.
- Abstract(参考訳): 機械学習モデルにおける公平性を保証することは、特に偏りのある決定が深刻な社会的結果をもたらすような、高度な領域において重要である。
既存の前処理アプローチでは、どの機能やインスタンスが不公平の原因であるかを特定するための透過的なメカニズムが欠如している。
これは、データ修正の背景にある根拠を曖昧にする。
FairSHAPは、Shapley値の属性を利用して、個人とグループの両方の公正性を改善する新しい前処理フレームワークである。
FairSHAPは、特徴重要度を解釈可能な尺度を用いてトレーニングデータの公平性クリティカルなインスタンスを特定し、センシティブなグループ間でのインスタンスレベルのマッチングを通じてそれらを体系的に修正する。
このプロセスは、データの完全性とモデルの正確性を保ちながら、識別リスク(個人の公正度測定値)を低減する。
また,FairSHAPは,多種多様な表表データセット間の機会均等性を著しく向上し,データ摂動を最小化して公正性向上を実現し,場合によっては予測性能を向上することを示した。
モデルに依存しない透明な方法として、FairSHAPは既存の機械学習パイプラインにシームレスに統合され、バイアスの原因に関する実行可能な洞察を提供する。
関連論文リスト
- Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Towards Algorithmic Fairness by means of Instance-level Data Re-weighting based on Shapley Values [6.752538702870792]
本稿では,公正なアルゴリズム決定のための新しいインスタンスレベルのデータ再重み付け手法であるFairShapを提案する。
異なる性質のいくつかの最先端データセットに対して、FairShapを実証的に検証する。
ベースラインと同等の精度で、より公平なモデルを生成する方法を示す。
論文 参考訳(メタデータ) (2023-03-03T13:53:36Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。