論文の概要: Fairness by Explicability and Adversarial SHAP Learning
- arxiv url: http://arxiv.org/abs/2003.05330v3
- Date: Fri, 26 Jun 2020 08:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:48:08.636211
- Title: Fairness by Explicability and Adversarial SHAP Learning
- Title(参考訳): 説明可能性と逆シャップ学習による公平性
- Authors: James M. Hickey, Pietro G. Di Stefano and Vlasios Vasileiou
- Abstract要約: 本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to understand and trust the fairness of model predictions,
particularly when considering the outcomes of unprivileged groups, is critical
to the deployment and adoption of machine learning systems. SHAP values provide
a unified framework for interpreting model predictions and feature attribution
but do not address the problem of fairness directly. In this work, we propose a
new definition of fairness that emphasises the role of an external auditor and
model explicability. To satisfy this definition, we develop a framework for
mitigating model bias using regularizations constructed from the SHAP values of
an adversarial surrogate model. We focus on the binary classification task with
a single unprivileged group and link our fairness explicability constraints to
classical statistical fairness metrics. We demonstrate our approaches using
gradient and adaptive boosting on: a synthetic dataset, the UCI Adult (Census)
dataset and a real-world credit scoring dataset. The models produced were
fairer and performant.
- Abstract(参考訳): モデル予測の公平性を理解し信頼する能力、特に特権のないグループの成果を考える場合、機械学習システムの展開と採用には不可欠である。
SHAP値は、モデル予測と特徴属性を解釈する統一的なフレームワークを提供するが、公平性の問題に直接対処しない。
本稿では,外部監査者の役割とモデルの検証可能性を強調した公平性の新しい定義を提案する。
この定義を満たすために、逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
我々は、単一特権グループによる二項分類タスクに焦点をあて、古典的な統計的公正度指標と公正さの制約を結びつける。
総合データセット、uciアダルトデータセット(census)、現実世界のクレジットスコアデータセットという、グラデーションと適応的なブースティングを用いて、我々のアプローチを実証する。
生産されたモデルはより公正でパフォーマンスが良かった。
関連論文リスト
- From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z) - Learning Fairness-aware Relational Structures [13.712395104755783]
等価性を考慮した構造学習アルゴリズムであるFair-A3SLを導入する。
この結果から,Fair-A3SLは,正確な予測を行うことができるが,解釈可能かつ表現的構造を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-21T18:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。