論文の概要: Demographic Parity Inspector: Fairness Audits via the Explanation Space
- arxiv url: http://arxiv.org/abs/2303.08040v1
- Date: Tue, 14 Mar 2023 16:19:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:05:57.474793
- Title: Demographic Parity Inspector: Fairness Audits via the Explanation Space
- Title(参考訳): デモグラフィー・パリティ・インスペクタ:説明空間による公正監査
- Authors: Carlos Mougan, Laura State, Antonio Ferrara, Salvatore Ruggieri,
Steffen Staab
- Abstract要約: 機械学習モデルの(非)差別性を評価する手段として、(非)公正性の尺度が提案されている。
本稿では,集団間差別の原因を調査するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.47085297559719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even if deployed with the best intentions, machine learning methods can
perpetuate, amplify or even create social biases. Measures of (un-)fairness
have been proposed as a way to gauge the (non-)discriminatory nature of machine
learning models. However, proxies of protected attributes causing
discriminatory effects remain challenging to address. In this work, we propose
a new algorithmic approach that measures group-wise demographic parity
violations and allows us to inspect the causes of inter-group discrimination.
Our method relies on the novel idea of measuring the dependence of a model on
the protected attribute based on the explanation space, an informative space
that allows for more sensitive audits than the primary space of input data or
prediction distributions, and allowing for the assertion of theoretical
demographic parity auditing guarantees. We provide a mathematical analysis,
synthetic examples, and experimental evaluation of real-world data. We release
an open-source Python package with methods, routines, and tutorials.
- Abstract(参考訳): 最良の意図でデプロイしても、機械学習の手法は永続的、増幅的、さらには社会的バイアスを生み出すことができる。
機械学習モデルの(非)差別性を評価する手段として、(非)公正性の尺度が提案されている。
しかし、差別的影響を引き起こす保護属性のプロキシは、解決が困難なままである。
本研究は,グループ間集団間差別の原因を検証できる,グループ毎の人口階層的パリティ違反を計測する新しいアルゴリズム的アプローチを提案する。
提案手法は,入力データや予測分布の一次空間よりも敏感な監査を可能にする情報空間と,理論的人口統計学的パーティ監査の保証を保証できる情報空間とに基づいて,保護属性に対するモデルの依存性を測定するという新しい考え方に依存している。
実世界のデータの数学的解析,合成例,実験評価を行う。
我々は、メソッド、ルーチン、チュートリアルを備えたオープンソースのPythonパッケージをリリースします。
関連論文リスト
- Protected Attributes Tell Us Who, Behavior Tells Us How: A Comparison of
Demographic and Behavioral Oversampling for Fair Student Success Modeling [6.58879009604603]
リスクのある学生を識別するために行動データを利用するモデルの公正性を解析し、バイアス軽減のための2つの新しい前処理アプローチを提案する。
交差性の概念に基づいて、第一のアプローチは、人口統計特性の組み合わせによるインテリジェントなオーバーサンプリングである。
第二のアプローチは、人口統計学的属性の知識を一切必要とせず、そのような属性が学生の行動の(騒々しい)プロキシであるという仮定に基づいている。
論文 参考訳(メタデータ) (2022-12-20T11:09:11Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes [15.525314212209564]
機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
論文 参考訳(メタデータ) (2021-10-03T22:10:14Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - A Statistical Test for Probabilistic Fairness [11.95891442664266]
不正な分類を検知するための統計的仮説テストを提案する。
理論的にも実証的にも,提案された試験が正しいことを示す。
さらに,提案フレームワークは,データの最も好ましい摂動を識別することにより,解釈可能性を提供する。
論文 参考訳(メタデータ) (2020-12-09T00:20:02Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。