論文の概要: Demographic Parity Inspector: Fairness Audits via the Explanation Space
- arxiv url: http://arxiv.org/abs/2303.08040v1
- Date: Tue, 14 Mar 2023 16:19:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:05:57.474793
- Title: Demographic Parity Inspector: Fairness Audits via the Explanation Space
- Title(参考訳): デモグラフィー・パリティ・インスペクタ:説明空間による公正監査
- Authors: Carlos Mougan, Laura State, Antonio Ferrara, Salvatore Ruggieri,
Steffen Staab
- Abstract要約: 機械学習モデルの(非)差別性を評価する手段として、(非)公正性の尺度が提案されている。
本稿では,集団間差別の原因を調査するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.47085297559719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even if deployed with the best intentions, machine learning methods can
perpetuate, amplify or even create social biases. Measures of (un-)fairness
have been proposed as a way to gauge the (non-)discriminatory nature of machine
learning models. However, proxies of protected attributes causing
discriminatory effects remain challenging to address. In this work, we propose
a new algorithmic approach that measures group-wise demographic parity
violations and allows us to inspect the causes of inter-group discrimination.
Our method relies on the novel idea of measuring the dependence of a model on
the protected attribute based on the explanation space, an informative space
that allows for more sensitive audits than the primary space of input data or
prediction distributions, and allowing for the assertion of theoretical
demographic parity auditing guarantees. We provide a mathematical analysis,
synthetic examples, and experimental evaluation of real-world data. We release
an open-source Python package with methods, routines, and tutorials.
- Abstract(参考訳): 最良の意図でデプロイしても、機械学習の手法は永続的、増幅的、さらには社会的バイアスを生み出すことができる。
機械学習モデルの(非)差別性を評価する手段として、(非)公正性の尺度が提案されている。
しかし、差別的影響を引き起こす保護属性のプロキシは、解決が困難なままである。
本研究は,グループ間集団間差別の原因を検証できる,グループ毎の人口階層的パリティ違反を計測する新しいアルゴリズム的アプローチを提案する。
提案手法は,入力データや予測分布の一次空間よりも敏感な監査を可能にする情報空間と,理論的人口統計学的パーティ監査の保証を保証できる情報空間とに基づいて,保護属性に対するモデルの依存性を測定するという新しい考え方に依存している。
実世界のデータの数学的解析,合成例,実験評価を行う。
我々は、メソッド、ルーチン、チュートリアルを備えたオープンソースのPythonパッケージをリリースします。
関連論文リスト
- Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Enriching Disentanglement: From Logical Definitions to Quantitative Metrics [59.12308034729482]
複雑なデータにおける説明的要素を遠ざけることは、データ効率の表現学習にとって有望なアプローチである。
論理的定義と量的指標の関連性を確立し, 理論的に根ざした絡み合いの指標を導出する。
本研究では,非交叉表現の異なる側面を分離することにより,提案手法の有効性を実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Measuring Fine-Grained Semantic Equivalence with Abstract Meaning
Representation [9.666975331506812]
意味論的に等価な文を特定することは、多くのNLPタスクにとって重要である。
意味的同値性への最近のアプローチは「等価性」への緩やかな文レベルのアプローチを取る
抽象的意味表現グラフ構造を利用した意味等価性を特徴付ける新しい,より敏感な手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T16:08:27Z) - Nonparametric Conditional Local Independence Testing [69.31200003384122]
条件付き局所独立は、連続的な時間プロセス間の独立関係である。
条件付き地域独立の非パラメトリックテストは行われていない。
二重機械学習に基づく非パラメトリックテストを提案する。
論文 参考訳(メタデータ) (2022-03-25T10:31:02Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - A partition-based similarity for classification distributions [11.877906044513272]
本稿では,統計的パターン認識の観点から原理化された分類分布の類似性の尺度を定義し,機械学習実践者の観点から有用であることを示す。
本稿では,対象分布に関する推論に適用した場合に,最適変換されたソース分布の最適表現がどのように動作するかを定量化する,タスク類似性と呼ばれる,分類分布に関する新しい類似性を提案する。
論文 参考訳(メタデータ) (2020-11-12T18:21:11Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。