論文の概要: A statistical approach to detect sensitive features in a group fairness
setting
- arxiv url: http://arxiv.org/abs/2305.06994v1
- Date: Thu, 11 May 2023 17:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-12 13:45:28.165865
- Title: A statistical approach to detect sensitive features in a group fairness
setting
- Title(参考訳): グループフェアネス設定における感度特徴検出のための統計的アプローチ
- Authors: Guilherme Dean Pelegrina, Miguel Couceiro, Leonardo Tomazeli Duarte
- Abstract要約: 本稿では,不公平な結果の検証に訓練されたモデルを必要としないセンシティブな特徴を自動的に認識するタスクに対処する前処理ステップを提案する。
我々の経験的結果は、我々の仮説を証明し、文献に敏感であると考えられるいくつかの特徴が必ずしも異質な(不公平な)結果を必要とするとは限らないことを示す。
- 参考スコア(独自算出の注目度): 10.087372021356751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of machine learning models in decision support systems with high
societal impact raised concerns about unfair (disparate) results for different
groups of people. When evaluating such unfair decisions, one generally relies
on predefined groups that are determined by a set of features that are
considered sensitive. However, such an approach is subjective and does not
guarantee that these features are the only ones to be considered as sensitive
nor that they entail unfair (disparate) outcomes.
In this paper, we propose a preprocessing step to address the task of
automatically recognizing sensitive features that does not require a trained
model to verify unfair results. Our proposal is based on the Hilber-Schmidt
independence criterion, which measures the statistical dependence of variable
distributions. We hypothesize that if the dependence between the label vector
and a candidate is high for a sensitive feature, then the information provided
by this feature will entail disparate performance measures between groups. Our
empirical results attest our hypothesis and show that several features
considered as sensitive in the literature do not necessarily entail disparate
(unfair) results.
- Abstract(参考訳): 社会的影響の高い意思決定支援システムにおける機械学習モデルの使用は、異なるグループに対する不公平な(異なる)結果に対する懸念を引き起こした。
このような不公平な判断を評価する場合、一般的には、センシティブと考えられる一連の特徴によって決定される事前定義されたグループに依存する。
しかし、このようなアプローチは主観的であり、これらの特徴だけが敏感である、あるいは不公平な(異なる)結果をもたらすものではないことを保証しない。
本稿では,不公平な結果を検証するために訓練されたモデルを必要としない,センシティブな特徴を自動的に認識するタスクに対して,事前処理ステップを提案する。
本提案は,変数分布の統計的依存性を測定するHilber-Schmidt独立基準に基づく。
ラベルベクトルと候補の依存性が感度の高い特徴に対して高い場合、この機能によって提供される情報には、グループ間のパフォーマンス対策の違いが伴うと仮定する。
我々の実験結果は仮説を検証し、文献に敏感であると考えられるいくつかの特徴は必ずしも異質な(不公平な)結果を伴わないことを示した。
関連論文リスト
- Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。