# (参考訳) 機械学習における公平度指標の動物園 [全文訳有]

The zoo of Fairness metrics in Machine Learning ( http://arxiv.org/abs/2106.00467v1 )

ライセンス: CC BY 4.0
Alessandro Castelnovo, Riccardo Crupi, Greta Greco, Daniele Regoli(参考訳) 近年,機械学習(ML)における公平性と自動意思決定の問題が,人工知能を扱う科学コミュニティで注目されている。 MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。 これらの概念間の正確な相違、含意、および「直交性」は、まだ文献で完全には分析されていない。 本研究では、この定義の動物園から何らかの順序付けを試みる。

In the recent years, the problem of addressing fairness in Machine Learning (ML) and automatic decision-making has attracted a lot of attention in the scientific communities dealing with Artificial Intelligence. A plethora of different definitions of fairness in ML have been proposed, that consider different notions of what is a "fair decision" in situations impacting individuals in the population. The precise differences, implications and "orthogonality" between these notions have not yet been fully analyzed in the literature. In this work, we try to make some order out of this zoo of definitions.
公開日: Tue, 1 Jun 2021 13:19:30 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。


    Page: /      
The zoo of Fairness metrics in Machine Learning 機械学習における公平度指標の動物園 0.68
Alessandro Castelnovoa,1, Riccardo Crupia,1, Greta Grecoa,1, Daniele Regolia,1 Alessandro Castelnovoa,1, Riccardo Crupia,1, Greta Grecoa,1, Daniele Regolia,1 0.71
aData Science and Artificial Intelligence, Intesa Sanpaolo S.p.A., Torino, Italy aData Science and Artificial Intelligence, Intesa Sanpaolo S.P.A., Torino, Italy 0.91
1 2 0 2 n u J 1 2 0 2 n u J 0.85
1 ] G L . 1 ] G L。 0.81
s c [ 1 v 7 6 4 0 0 sc [ 1 v 7 6 4 0 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract In the recent years, the problem of addressing fairness in Machine Learning (ML) and automatic decision-making has attracted a lot of attention in the scientific communities dealing with Artificial Intelligence. 概要 近年,機械学習(ML)における公平性と自動意思決定の問題が,人工知能を扱う科学コミュニティで注目されている。 0.55
A plethora of different definitions of fairness in ML have been proposed, that consider different notions of what is a “fair decision” in situations impacting individuals in the population. MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。 0.64
The precise differences, implications and “orthogonality” between these notions have not yet been fully analyzed in the literature. これらの概念の正確な違い、意味、および「直交性」は、文献ではまだ完全には分析されていない。 0.57
In this work, we try to make some order out of this zoo of definitions. 本研究では、この定義の動物園から何らかの順序付けを試みる。 0.62
Keywords: Machine learning; Fairness キーワード:機械学習;公正 0.89
Introduction The issue of discrimination bias in Machine Learning (ML) has gained a lot of momentum in the scientific community in the last few years. はじめに 機械学習(ML)における差別バイアスの問題は、ここ数年、科学コミュニティで大きな勢いを増している。 0.56
It is now widely recognized that data-driven decision making is not per se safe from producing unfair or biased decisions, either for amplifications of biases already present in the data they learn from, or for algorithmic inaccuracies (see, among others, Barocas and Selbst (2016); Angwin et al (2016); O’neil (2016)). 現在、データ駆動意思決定は、彼らが学んだデータにすでに存在する偏見の増幅やアルゴリズムの不正確さ(例えば、BarocasとSelbst(2016年)、Angwin et al(2016年)、O'neil(2016年)など、不公平または偏見のある決定を下すことから安全ではないことが広く認識されている。 0.69
The scientific literature addressing the problem of fairness in ML has focused in the recent years on two main aspects: i) how to measure and assess fairness (or, equivalently, bias), and ii) how to mitigate bias in models when necessary. mlにおける公平性の問題に取り組む科学文献は、近年、2つの主な側面に焦点をあてている: i)公平性(または、等価なバイアス)をどのように測定し評価するか、ii) 必要に応じてモデルのバイアスを緩和するか。
訳抜け防止モード: MLにおける公平性の問題に対処する科学的文献は,近年,2つの主要な側面に焦点をあてている。 公平さ(または同等の偏見)を測り、評価する ii) 必要であればモデルのバイアスを軽減する方法。
Regarding the first aspect, in the last few years an incredible number of definitions have been proposed, formalizing different perspectives from which to assess and monitor fairness in decision making processes. 最初の側面に関しては、ここ数年で膨大な数の定義が提案され、意思決定プロセスの公平性を評価し監視するための異なる視点が定式化されている。 0.72
A popular tutorial presented at the Conference on Fairness, Accountability, and Transparency in 2018 was titled “21 fairness definitions and their politics” (Narayanan, 2018). 2018年のフェアネス、説明責任、透明性に関するカンファレンスで発表された一般的なチュートリアルは、"21 fairness definitions and their politics"(narayananan, 2018)と題された。 0.62
The number has grown since then. それ以来その数は増え続けている。 0.63
The proliferation of fairness definitions is not per se an issue: it reflects the evidence that fairness is not a precise concept, and concentrates on itself different meanings and nuances, in turn depending in complex ways on the specific situation considered. フェアネスの定義の拡散は、必ずしも問題ではない: フェアネスが正確な概念ではないという証拠を反映し、それぞれ異なる意味やニュアンスに焦点を合わせ、考察された特定の状況に複雑な方法で焦点を合わせている。 0.60
Researches, in proposing definitions, have focused on different intuitive notions of “unfair decisions”, often considered as the ones impacting people in different ways on 研究は、定義の提案において、様々な直感的な「不公平な決定」の概念に焦点を当てており、しばしば異なる方法で人々に影響を及ぼすものと見なされている。 0.62
1The views and opinions expressed are those of the authors and do not necessarily reflect the views of Intesa Sanpaolo, its affiliates or its employees. 1 著者の見解や意見は、必ずしもインテサ・サンパオロやアフィリエイト、従業員の見解を反映しているとは限らない。 0.55
the basis of some personal characteristics, such as gender, ethnicity, age, sexual or political or religious orientations, considered to be protected, or sensitive. 性、民族性、年齢、性的、政治的、宗教的指向など、保護または敏感とされるいくつかの個人的特性の基礎。 0.72
Relationships and interdependence of these sensitive variables with other features useful for making decisions is one of the crucial points, that entangles in complex ways the ultimate aim of any model, i.e. これらの敏感な変数と決定に有用な他の特徴の関係と相互依存は、複雑な方法で絡み合うような重要なポイントの1つであり、すなわち任意のモデルの究極の目的である。
訳抜け防止モード: これらの敏感な変数と意思決定に有用な他の特徴の関係と相互依存は重要なポイントの1つである。 複雑な方法で絡み合う あらゆるモデルの究極の目的 つまり
making efficient decisions, and the desired goal of not allowing unfair discrimination to impact people’s lives. 効率的な意思決定、そして不公平な差別が人々の生活に影響を及ぼすことを許さないという望ましい目標。 0.66
Fairness notions proposed in the literature are usually classified in broad areas, such as: definitions based on parity of statistical metrics across groups identified by different values in protected attributes (e g male and female individuals, or people in different age groups); definitions focusing on preventing different treatment for individuals considered similar with respect to a specific task; definitions advocating the necessity of finding and employing causality among variables in order to really disentangle unfair impacts on decisions. Fairness notions proposed in the literature are usually classified in broad areas, such as: definitions based on parity of statistical metrics across groups identified by different values in protected attributes (e g male and female individuals, or people in different age groups); definitions focusing on preventing different treatment for individuals considered similar with respect to a specific task; definitions advocating the necessity of finding and employing causality among variables in order to really disentangle unfair impacts on decisions. 0.97
These three broad classes can be further seen as the result of two important distinctions: これら3つの広いクラスは、2つの重要な区別の結果としてさらに見受けられる。 0.65
1. observational vs. causality-based criteria; 2. group (or statistical) vs. 1. 観察対因果関係に基づく基準 2. グループ(または統計)対 0.68
individual (or similarity- based) criteria. 個人(または類似) 基準)。 0.55
Distinction 1. discriminates criteria that are purely based on observational distribution of the data from criteria that try to first unveil causal relationships among the variables at play (mainly through a mixture of domain knowledge and opportune inference techniques) and then assess fairness in the specific situation. 識別1は、プレー中の変数間の因果関係を最初に明らかにしようとする基準(主にドメイン知識とオポチュン推論手法の混合による)からデータの観測分布に基づいて純粋に基準を識別し、特定の状況における公正性を評価する。 0.80
Distinction 2. discriminates criteria that focus on equality of treatment among groups of people from criteria requiring equality of treatment among couples of similar individuals. 分類2 類似者のカップル間で治療の平等を要求する基準から、集団間の治療の平等に焦点を当てた基準を判別する。 0.76
Preprint submitted to Elsevier Elsevierに提出されたプレプリント 0.57
June 2, 2021 2021年6月2日 0.70
i.e. Regarding aspect ii), that of removing bias when present, several approaches have been introduced in order to provide bias mitigation in data-driven decisions. i.e. アスペクトiiに関しては,データ駆動意思決定におけるバイアス緩和を図るために,バイアス除去手法がいくつか導入されている。 0.69
Roughly speaking, they fall into three families, depending on the specific point along the ML pipeline in which they operate: pre-processing methods, that try to remove bias directly from data; in-processing techniques, imposing fairness either as a constraint or as an additional loss term during training optimization; post-processing methods, working directly on the outcomes of the model. 大まかに言えば、彼らは運用するMLパイプラインの特定のポイントに依存する3つのファミリーに分類される。前処理メソッド、データから直接バイアスを取り除こうとする方法、内処理技術、制約またはトレーニング最適化中の損失項としてフェアネスを付与する手法、後処理メソッド、モデルの結果を直接扱う方法。 0.78
The present work focuses on the first of these aspects, and in particular deals with the aforementioned fact that the number of different metrics for fairness introduced in the literature has boomed. 本研究は,これらの側面の第一に焦点をあて,特に文献に紹介された公平さの異なる指標の数が急増している事実を扱っている。 0.68
The researcher or practitioner first approaching this facet of ML may easily feel confused and somehow lost in this zoo of definitions. MLのこの側面に最初に近づいた研究者や実践者は、この定義の動物園で混乱し、何らかの形で失われたと感じられるかもしれない。 0.47
These multiple definitions capture different aspects of the concept of fairness but, at the best of our knowledge, there is still no clear understanding of the overall landscape where these metrics live. これらの複数の定義はフェアネスの概念の異なる側面を捉えていますが、私たちの知る限りでは、これらの指標が生きる全体像について明確な理解はいまだにありません。 0.63
This work aims to take a step in the direction of analyzing the relationship among the metrics, and trying to put order in the fairness landscape. この研究は、メトリクス間の関係を分析し、フェアネスの景観に秩序を置こうとする方向への一歩を踏み出すことを目的としています。
訳抜け防止モード: この仕事は、方向を一歩踏み出すことを目的としています メトリクス間の関係を分析し 公正な風景に秩序を置こうとします
Table 1 provide a rough schematic list of fairness metrics discussed throughout the paper. 表1は、論文全体で議論された公平度メトリクスの粗いスキーマリストを提供する。 0.61
As general references for the definition of fairness in ML we refer to the book Barocas et al (2019) and to the papers Verma and Rubin (2018); Mitchell et al (2018); Oneto and Chiappa (2020) for more compact surveys. mlにおけるフェアネスの定義に関する一般的な参考文献としては、よりコンパクトな調査のために、barocas et al (2019) と the papers verma and rubin (2018)、mitchell et al (2018)、oneto and chiappa (2020) を参照する。 0.74
Chouldechova and Roth (2018, 2020) provide a general view of the state of the art of fairness in ML. Chouldechova and Roth (2018, 2020) はMLにおけるフェアネスの状態を概観している。 0.68
In this work, we shall deal with (binary) classification problems, and we shall only make a brief reference to the problem of multiple sensitive attributes: despite this huge simplifications, the landscape of fairness definitions is nevertheless extremely rich and complex. この作業では、(バイナリ)分類の問題に対処し、複数の機密属性の問題を簡潔に言及するのみである:この大きな単純化にもかかわらず、公平性の定義の風景は、それでも非常に豊かで複雑である。 0.67
The rest of this paper is organized as follows: section 1 proposes an account of the most important sources of bias in ML models; section 2 introduces individual fairness; section 3 is devoted to the most prolific set of definitions, namely the group (or statistical) metrics; causality-based criteria are discussed in section 4. 第1節では、mlモデルにおける最も重要なバイアス源の説明、第2節では個々に公平性を導入し、第3節では、グループ(または統計)のメトリクスを含む、最も多作な定義に割かれ、因果性に基づく基準は第4節で議論される。 0.68
1. The problem of bias in data-driven decisions 1. データ駆動決定におけるバイアスの問題 0.81
Most sources of bias in data-driven decision making lie in the data itself and in the way in which they are collected. データ駆動意思決定におけるバイアスの源は、データそのものと、それらが収集される方法にある。 0.71
It is out of the scope of this manuscript to list and discuss all the possible shades of biases that can hide in the data, we want nevertheless to say something about the main cases that can be encountered in many real-life scenarios. この原稿の範囲外であり、データに隠せるバイアスのあらゆる色合いをリストアップし、議論していますが、私たちは、多くの現実のシナリオで遭遇する主なケースについて何かを言いたいのです。 0.73
The most important qualitative distinction, that we draw from Mitchell et al (2018) and Barocas and Selbst (2016), lies between statistical or representation biases, i.e. 最も重要な定性的区別は、Mitchell et al (2018) と Barocas and Selbst (2016) から導かれるもので、統計バイアスと表現バイアスの間にある。 0.68
when the model learns from biased sampling from the population, and historical or societal biases, i.e. いつ このモデルは、人口から偏ったサンプリングから学び、歴史的、社会的なバイアスから学ぶ。 0.68
when the model learns from data where decisions are already impacted by past prejudice. モデルが過去の偏見によってすでに決定が影響を受けるデータから学ぶとき。 0.79
1.1. Statistical bias Generally speaking, statistical bias occurs whenever the data used for model training are not representative of the true population. 1.1. 統計バイアス 一般に、モデルトレーニングに使用されるデータが真の人口を代表していない場合、統計バイアスが発生する。 0.73
This can be due to a form of selection bias, i.e. これは選択バイアス、すなわち選択バイアスによる可能性がある。 0.72
when the individuals appearing in the data come from a non-random selection of the full population. データに現れる個人は、全人口の非ランダムな選択から来ている。 0.71
This happens, for example, in the context of credit lending, where the information of the repayment is known only for people that were granted the loan. これは例えば、融資の文脈で発生するもので、返済の情報はローンを与えられた人々のみにのみ知られます。 0.64
Another way in which statistical bias can enter the data is via systematic measurement errors. 統計バイアスがデータを入力できる別の方法は、系統的な測定誤差である。 0.79
This happens when the record of past errors and performance is systematically distorted, especially in the case of different amount of distortion for different groups of people. これは、過去のエラーやパフォーマンスの記録が体系的に歪んだときに起こり、特に、異なるグループで異なる量の歪みが発生した場合である。 0.74
Similarly, it may happen that data are systematically missing or poorly recorded for entire strata of the population. 同様に、データが体系的に欠落したり、人口の層全体について記録が不十分になったりすることもある。 0.60
One aspect of paramount importance, but often omitted, is the following: in the context of fairness, even in samples perfectly representative of the population it may be that some protected group happens to be a minority group. 最重要さの1つの側面は、しばしば省略されるが、以下の点である: 公正さの文脈では、たとえサンプルが完全に人口を代表しているとしても、保護された集団の一部が少数派である。 0.64
All in all, minorities exist. いずれも少数民族である。 0.65
In this case, especially when the minority group is highly unbalanced, a ML model can learn less accurately or may learn to discard errors on that group simply because it is less important in terms of crude counting. この場合、特にマイノリティグループが高度に不均衡である場合、mlモデルはより正確に学習するか、単に粗数において重要でないため、そのグループのエラーを破棄することを学ぶことができる。 0.70
Again, notice that this is not a form of statistical bias tout court, since in this case the “underrepresentativen ess” of the protected group is a true feature of the population. この場合、保護集団の「非表現性」が人口の真の特徴であることから、これは統計バイアストウト裁判所の形式ではないことに注意してください。 0.75
Nevertheless, this is something very common, and one of the most important source of unfair discrimination against protected groups that happen to be minorities (Hardt, 2014). それにもかかわらず、これは非常に一般的であり、少数民族である保護されたグループに対する不公平な差別の源泉の1つである(Hardt, 2014)。 0.66
This last issue may be reasonably considered as a source of biased decisions due to poor modeling rather than to a problem in data. この最後の問題は、データの問題よりもモデリングの貧弱さによる偏りのある意思決定の源として、合理的に考えられるかもしれない。 0.63
The boundary is subtle, and in any case this is a matter of nomenclature: the important thing is to be aware of the risk. 境界は微妙であり、いずれにせよこれは命名の問題である。
訳抜け防止モード: 境界は微妙であり、いずれにしてもこれは命名外である : 重要なのはリスクに気付くことです。
1.2. Historical or societal bias 1.2. 歴史的または社会的偏見 0.67
Even when the data are free from statistical bias, i.e. データが統計的バイアスのない場合でも、つまり、 0.71
they truly represent the population, take into account minorities and there is no systematic error in recording, still it may be that bias exists simply because data reflect biased decisions. 彼らは本当に人口を代表し 少数民族を考慮に入れ 記録に体系的な誤りはない しかし 偏見は 単に 偏見のある判断を反映しているだけなのかもしれない 0.71
In most cases, this is due to a form of labelling bias, i.e. ほとんどの場合、これはラベル付けバイアス(すなわち、バイアス)の形式に起因する。 0.67
a systematic favour/disfavour towards groups of people at the moment of creating the target variable from which the model is going to learn. モデルが学習しようとしているターゲット変数を作成する時点で、人々のグループに対する体系的な好意/嫌悪感。 0.75
If the recorded outcomes are somehow due to human decisions (e g a model for granting loans may be trained on loan officers’ past decisions), 記録された結果が何らかの理由で人的決定(例えば、融資を許可するモデルが融資担当者の過去の決定に基づいて訓練されることがある)によるものである場合。 0.58
2 2 0.85
Table 1: Fairness metrics. Qualitative schema of the most important fairness metrics discussed throughout the paper. 表1:公平度指標。 論文全体で議論されている最も重要な公平度指標の質的スキーマ。 0.71
notion use of Y condition 概念 Y の使用 条件 0.69
group fairness group + fair 0.71
Demographic Parity デモグラフィー・パリティ 0.53
Conditional Demographic Parity Conditional Demographic Parity 0.85
error parity error + parity 0.72
Equality of Odds Equal Accuracy オッズの平等 等精度 0.63
Predictive Parity individual fairness 予測パリティ 個々人の公平さ 0.52
FTU/Blindness FTU/Blindness 0.59
Fairness Through Awareness causality-based fairness 認識による公正 因果関係に基づく公正 0.50
Counterfactual Fairness path-specific 偽りの公平さ path‐specific 0.50
Counterfactual Fairness -∗ (cid:88) (cid:88) (cid:88) 偽りの公平さ -*(cid:88)(cid:88) 0.61
-∗ - - equal acceptance rate across groups equal acceptance rate across groups in any strata -∗ - - グループ間の等しい受け入れ率 任意の階層内のグループ間で等しい受け入れ率 0.81
equal accuracy across groups グループ間で等しい精度 0.82
equal FPR and FNR across groups グループ間で等しいFPRとFNR 0.86
equal precision across groups グループ間で等しい精度 0.82
no explicit use of sensitive attributes 繊細な属性の明示的な使用 0.59
similar people are given similar decisions 類似の人々は 同様の決定を下され 0.70
an individual would have been given the same decision if she had had different values in sensitive attributes same as above, but keeping fixed some specific attributes 上と同じ感度特性で異なる値を持っていた場合、個人が同じ決定を下すが、特定の属性を固定し続ける。 0.73
∗ there are exceptions to these cases where Y is actually employed, e g CDP conditioning on Y becomes Equality of Odds, and there are notions of individual fairness that use a similarity metric defined on the target space (Berk et al , 2017). ∗ は、Y が実際に用いられる場合に例外があり、Y 上の eg CDP 条件は、Odds の等式となり、対象空間上で定義される類似度計量(Berk et al , 2017)を使用する個々の公正性の概念がある。 0.74
then we cannot in general trust their objectiveness and “fairness”. 彼らの目的と“公正”を信頼できないのです。 0.54
Other forms of historical bias may be even more radical: gender bias has a rather long history, and is embedded in all sorts of characteristics and features in such a way that it is difficult evaluate its impact and disentangle its dependence on other variables. 性別バイアスは、かなり長い歴史を持ち、その影響を評価するのが難しく、他の変数への依存を弱めるような、あらゆる特徴や特徴に埋め込まれている。
訳抜け防止モード: その他の形態の歴史的偏見はさらに急進的かもしれない 性別バイアスはかなり長い歴史を持ち、あらゆる特徴や特徴にそのように埋め込まれている。 その影響を評価し、他の変数への依存を解き放つことは難しい。
Think for example of income or profession disparities, just to name a few out of many. 例えば、収入や職業格差について考えてみましょう。
訳抜け防止モード: 例えば、収入や職業格差を考えてください。 多くを数個挙げるだけです
Thus, this is a situation in which long-lasting biases cause systematic differences in features pertaining different groups of people. このように、長続きするバイアスが、異なるグループに属する特徴の体系的な違いを引き起こす状況である。 0.76
Again, this is not a form of unrepresentativeness of the sample, it is a bias present in the full population. 繰り返すが、これは標本の非代表性の形式ではなく、全個体群に存在するバイアスである。
訳抜け防止モード: 繰り返しますが、これはサンプルの非表現性の形式ではありません。 人口全体に存在する偏見である。
Finally, this is not meant to be an exhaustive account, bias can lurk in the data in a variety of additional ways, e g a poor selection of features may result in a loss of important information in disproportionate ways across groups (Barocas and Selbst, 2016), and many others. 最後に、これは徹底的な説明ではなく、バイアスは様々な追加の方法でデータにこだわる可能性がある。例えば、機能の貧弱な選択は、グループ間で不均等な方法で重要な情報が失われる可能性がある(BarocasやSelbst、2016)。 0.64
We refer the interested reader to Barocas and Selbst (2016); Barocas et al (2019); Mehrabi et al (2019); Hardt (2014), and references therein. 興味のある読者はbarocas and selbst (2016), barocas et al (2019), mehrabi et al (2019), hardt (2014), and references thereinを参照。 0.68
2. Individual fairness 2.1. 2. 個人的公正 2.1. 0.72
Toy examples and notation おもちゃの例と表記法 0.60
for reference we shall take to be gender, we label with X all the other (non-sensitive) random variables that the decision-maker is going to use to provide its yes/no decisions ˆY = f (X, A) ∈ {0, 1}; while we label Y ∈ {0, 1} the ground truth target variable that needs to be estimated/predicted – typically by minimizing some loss 基準として、私たちはXを他の(非感受性の)ランダム変数にラベル付けし、意思決定者がYY = f (X, A) ∈ {0, 1} を提供するのに使用する。
訳抜け防止モード: 参照のために、私たちは x とラベル付けし、決定する他のすべての (非敏感な) 確率変数 - メーカーは、その yes / no 決定を与えるために使われる。 1 } ; y ∈ { 0, 1 } とラベル付けする一方で、推定または予測する必要がある基底真理のターゲット変数は、通常、 損失を最小化する
function L(Y, ˆY ). 関数 L(Y, ~Y) である。 0.75
(cid:101)X = (X, A) collectively represent all (cid:101)X = (X, A) がすべてを表す 0.83
the features of the problem. We denote with lowercase letters the specific realizations of random variables, e g {(x1, y1), . その問題の特徴。 我々は小文字で確率変数の特定の実現、e g {(x1, y1) を示す。 0.62
. . , (xn, yn)} represent a dataset of n independent realizations of (X, Y ). . . , (xn, yn)} は (X, Y) の n 独立な実現のデータセットを表す。 0.85
We employ calligraphic symbols to refer to domain spaces, namely X denotes the space where features X live2. 我々は、領域空間、すなわち x が x live2 の特徴を持つ空間を表すために、書式記号を用いる。
訳抜け防止モード: 文字記号を使い ドメイン空間を参照。 すなわち、x は x live2 を特徴とする空間を表す。
2.2. Similarity-based criteria Individual fairness is embodied in the following principle: similar individuals should be given similar decisions. 2.2. 類似性に基づく基準 個々の公平性は以下の原則で具体化されている。 0.71
This principle deals with the comparison of single individuals rather than focusing on groups of people sharing some characteristics. この原則は、いくつかの特徴を共有する人々のグループではなく、個人の比較を扱う。 0.73
On the other hand, group fairness starts from the idea that there are groups of people potentially suffering biases and unfair decisions, and thus tries to reach equality of treatment for groups instead of individuals. 一方、グループフェアネスは、偏見や不公平な判断に悩まされる可能性のある人々のグループが存在するという考えから始まり、個人ではなく、グループに対する治療の平等に到達しようとする。 0.67
The first attempt to deal with a form of individual fairness is in Dwork et al (2012), where the concept is introduced 個々人の公平性を扱う最初の試みはdwork et al (2012) で、そこで概念が導入されている。 0.78
To be as clear as possible, in what follows we shall make several references to 2 toy examples: credit lending decisions, and job recruiting. できるだけ明確にするために、以下の2つのトイの例に言及します。 融資の決定と雇用のリクルートです。 0.54
We call A the categorical random variable representing the protected attribute, that 我々はAを保護属性を表すカテゴリ的ランダム変数と呼びます。 0.79
2Technically, since we employ uppercase letters to denote random variables, it would be more proper to say that X is the image space of X : Ω → X , where Ω is the event space, and that x ∈ X . 技術的には、確率変数を表すために大文字を使うので、X は X : Ω → X の像空間であり、Ω は事象空間であり、x ∈ X であると言う方が適切である。 0.82
We shall nevertheless use this slight abuse of notation for sake of simplicity. それにもかかわらず、我々は単純さのためにこのわずかに表記を乱用する。 0.60
3 3 0.85
i.e. there is disparate treatment whenever two individuals sharing the same values of non-sensitive features but differing on the sensitive ones are treated differently (Barocas and Selbst, 2016; Zafar et al , 2017). i.e. 非敏感な特徴の同じ値を共有するが、敏感な特徴の値が異なる2人が異なる扱いを受けると、異なる治療が行われる(barocas and selbst, 2016; zafar et al , 2017)。 0.75
(1) as a Lipschitz condition of the map f from the feature space to the model space: (1) 特徴空間からモデル空間への写像 f のリプシッツ条件として: 0.73
distY (ˆyi, ˆyj) < L × dist(cid:101)X ((cid:101)xi,(cid:10 1)xj), distY (...) < L × dist(cid:101)X ((cid:101)xi,(cid:10 1)xj), 0.91
where distY and dist(cid:101)X denote a suitable distance in target ここでdistYとdist(cid:101)Xはターゲットの適切な距離を示す 0.68
space and feature space, respectively, and L is a constant. 空間と特徴空間はそれぞれ定数であり、l は定数である。 0.74
Loosely speaking, a small distance in feature space (i.e. ゆるやかに言えば、特徴空間(すなわち、小さな距離)である。 0.73
similar individuals) must correspond to a small distance in decision space (i.e. 類似した個人)は、決定空間の小さな距離(すなわち、)に対応しなければならない。 0.61
similar outcomes). They also propose an approach to enforce such kind of fairness by introducing a constrained optimization at training time, once a distance on the feature space is given. 同様の結果)。 また、機能空間に距離が与えられると、トレーニング時に制約付き最適化を導入することで、このような公平性を強制するアプローチも提案している。 0.71
The concept of individual fairness is straightforward, and it certainly resonates with our intuitive notion of “equality”. 個々人の公平性の概念は単純で、直感的な「平等」の概念に反する。 0.67
Formula (1) provides also an easy way to assess フォーミュラ(1)は簡単に評価する方法を提供する 0.80
whether the decision model ˆY = f ((cid:101)X) satisfies such conIndeed, defining a suitable distance metric dist(cid:101)X on fea- 決定モデル >Y = f((cid:101)X) が、 fa 上の適切な距離メートル法 dist(cid:101)X を定義するような conIndeed を満たすかどうか 0.69
cept. However, the major drawback of this type of definitions lies in the subtle concept of “similar individuals”. セプス しかし、この種の定義の大きな欠点は、「類似した個人」という微妙な概念にある。 0.47
ture space embodying the concept of similarity on “ethical” grounds alone is almost as tricky as defining fairness in the first place. にのみ類似性の概念を具現化したチュール空間は、そもそも公正性を定義するのと同じくらい難しい。 0.59
for space target ですから 空間 ターゲット 0.68
the natural Indeed, while choice distY ( ˆYi, ˆYj) =| ˆYi − ˆYj| will do, for feature space the natural choice of the euclidean distance on the space A × X implies that any smooth function f shall satisfy condition (1), but this is not a very interesting notion of fairness. 自然に 実際、選び方 distY が成り立つ一方で、特徴空間に対して、空間 A × X 上のユークリッド距離の自然な選択は、任意の滑らかな函数 f が条件 (1) を満たすことを意味するが、これはフェアネスの非常に興味深い概念ではない。 0.73
The point is that one should come up with a distance that captures the essential features for determining that target, and that do not mix with sensitive attributes. ここでのポイントは、ターゲットを決定するために不可欠な特徴を捉え、機密性の高い属性を混ぜない距離を考え出すことである。 0.71
But, again, this is not very different from defining what is fairness in a specific situation. しかし、これは特定の状況における公平性を定義することとは大きく異なるものではない。 0.69
Unfortunately, despite its compelling simplicity, fairness through unawareness comes not without flaws. 残念なことに、シンプルさにもかかわらず、不審さによる公平さには欠陥がない。 0.38
Firstly, if it is true that reaching FTU is straightforward, it is not that easy to assess. まず第一に、ftu への到達が単純であるなら、評価はそれほど容易ではない。 0.69
The problem of bias assessment in a model consists in measuring whether the model decisions are biased given a set of realizations of (A, X, ˆY ), namely {(a1, x1, ˆy1), . モデルにおけるバイアスアセスメントの問題は、(A, X, >Y) の一連の実現、すなわち {(a1, x1, >y1) の集合がモデル決定に偏っているかどうかを測定することである。 0.74
. . , (an, xn, ˆyn)} – the corresponding values of Y are needed as well for some criteria. . . , (an, xn, syn)} – Y の対応する値もいくつかの基準で必要である。 0.83
In this setting, it is tricky to measure whether FTU holds, the main reason being that it is more a request on how the model works rather than a request on properties of the output decisions. この設定では、FTUが保持するかどうかを測定するのが難しい。主な理由は、出力決定のプロパティに対する要求ではなく、モデルがどのように機能するかに関する要求であるからである。 0.67
One possible candidate metric is the following: 候補となる指標は以下のとおりである。 0.60
 n(cid:88) n(cid:88) である。 0.58
i=1 (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)ˆyi − i=1 (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)-yi − 0.66
1 k (cid:88) 1k (cid:88) 0.74
 , (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)  , (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) 0.85
xj∈kN N (xi) xi (複数形 xis) 0.57
ˆyj (2) consistency = 1 − ジジ (2) 一貫性 = 1 − 0.73
1 n introduced in Zemel et al (2013). 1n Zemel et al (2013)で紹介。 0.71
Namely, for each observation (xi, ˆyi) it measures how much the decision ˆyi is close to the decisions given to its k nearest neighbors kN N (xi) in the X space3. すなわち、各観測値 (xi, xiyi) に対して、x 空間 3 において k に近い近傍の kn n (xi) に対して与えられる決定と、その決定がどれだけ近いかを測定する。 0.78
Notice that it may happen that the k neighbors of, say, a male individual are all males: in this case consistency (2) would in fact be equal to 1, but this does not prevent the model from explicitly using A in making decisions. この場合、一貫性 (2) は実際には 1 に等しいが、これはモデルが決定を下す際に a を明示的に使用することを妨げない。
訳抜け防止モード: 例えば男性同士のk隣人がすべて男性であることに注意すること :この場合、一貫性 (2 ) は実際には 1 に等しい。 しかし、これはモデルが意思決定にaを明示的に使用することを妨げるものではない。
Another possibility, partly inspired by Berk (2009), would be to compute Berk (2009) に触発された別の可能性として、計算が考えられる。 0.60
1 n1n2 e −dist(xi,xj )|ˆyi − ˆyj|, 1 n1n2 E −dist(xi,xj )|,yi − ,yj|, 0.75
(3) (cid:88) (3) (cid:88) 0.82
ai=1, aj =0 ai=1, aj =0 0.74
Take, e g , the job recruiting framework: what identifies the couples of individuals that should be considered similar and thus given the same chance of being recruited? 求職フレームワーク(job recruiting framework)を例にとりましょう。 同一視されるべき個々人のカップルを特定して、採用される機会が同じになるようにしますか? 0.64
Maybe the ones with same level of skills and experience irrespective of anything else? 他に何があっても、同じレベルのスキルと経験を持つ人たちでしょうか? 0.63
One possibility is to define similar individuals as couples belonging to different groups with respect to sensitive features (e g male and female) but with the same values for all the other features. 一つの可能性は、類似した個体を、感受性のある特徴(男性や女性など)に関して異なるグループに属するカップルとして定義するが、他の全ての特徴に対して同じ値を持つ。 0.69
With this choice, what we are requiring is that its outcome should be unchanged if we take an observation and we only change its protected attribute A. この選択によって、私たちが求めているのは、観測を行い、保護された属性aだけを変更する場合、結果が変わるべきだということです。 0.66
This concept is usually referred to as Fairness Through Unawareness (FTU) or blindness (Verma and Rubin, 2018), and it is expressed as the requirement of not explicitly employing protected attributes in making decisions. この概念は、通常Fairness Through Unawareness (FTU) または blindness (Verma and Rubin, 2018)と呼ばれ、決定に保護属性を明示的に使用しないという要件として表現されている。 0.78
which measures the difference in decisions among men and women weighted by their similarity in feature space: the higher its value the higher the difference in treatment for couples of similar males and females.4 On the other hand, it is much easier to assess FTU if we also have access to the model: we could create a synthetic dataset by flipping A5: {(a(cid:48) n, xn)}, feeding it to the model to get the corresponding outcomes ˆy(cid:48) n, and then compute the average 1 n 特徴空間の類似性によって重み付けされる男女間の決定の差を測定する: その値が高いほど、類似した男性と女性のカップルに対する治療の差が大きくなる。4 一方、モデルへのアクセスも可能であれば、FTUを評価するのがずっと簡単である: A5: {(a(cid:48) n, xn)} をフリップして合成データセットを作成し、対応する結果を得るためにモデルに供給し、平均1 n を計算する。 0.84
(cid:80)n i=1|ˆyi − ˆy(cid:48) i|. (cid:80)n i=1| yi − y(cid:48) i|。 0.66
1, x1), . 1, x1) であった。 0.65
. . , (a(cid:48) . . , (a(cid:48) 0.87
1, . . . , ˆy(cid:48) 1, . . . , sy (cid:48) 0.83
However, the main drawback of FTU is the following: it does not take into account the possible interdependence between A and X. しかし、FTUの主な欠点は以下の通りである: A と X の間の相互依存を考慮に入れない。 0.72
Other features may contain information on the sensitive attribute, thus explicitly removing the sensitive attribute is not sufficient to remove its information from the dataset. 他の機能はセンシティブ属性に関する情報を含んでいるため、センシティブ属性を明示的に削除してもデータセットから情報を削除するには不十分である。 0.64
Namely, it may be that in つまり、その場合かもしれない。 0.67
Notice that this idea is very likely one of the first that one may think of when asked for, e g , a decision-making process that does not discriminate against gender: not to explicitly use gender to make decisions, i.e. このアイデアは、例えば、性別を区別しない意思決定プロセス、すなわち、決定を下すために、性を明示的に使用しないことなど、要求されたときに最初に思いつく可能性がある。 0.68
ˆY = f (X). y = f (X) である。 0.76
Indeed, this concept is also referred to as disparate treatment, 実際、この概念は異種治療(disparate treatment)とも呼ばれる。 0.69
a distance function on X . 3Notice that also in the computation of kN N one has to choose 4The term e−dist(xi,xj ) can be substituted with any measure of x 上の距離関数。 kN N の計算においても 4 を選ばなければならない3Notice e-dist(xi,xj ) という用語は任意の測度で置き換えることができる。 0.72
similarity of the points xi and xj . 点xi と xj の類似性。 0.64
5This holds if A is binary. 5 これは A がバイナリであれば成り立つ。 0.55
But it is easy to come up with gener- しかし、generを思いつくのは簡単です。 0.55
alizations to the multiclass case. マルチクラスケースへのアライズ。 0.66
4 4 0.85
the actual dataset there is a very low chance that a male and a female have similar values in all the (other) features, since gender is correlated with some of them. 実際のデータセットでは、性別がそれらの一部と相関しているため、男性と女性がすべての(他の)特徴において類似した値を持つ可能性が非常に低い。 0.79
One may or may not decide that (some of) these correlations are legitimate6. これらの相関関係が正則6であると判断するかもしれないし、そうでないかもしれない。 0.49
This is one of the reasons why the definition of a issue-specific distance is crucial for a more refined notion of individual fairness. これは問題固有の距離の定義がより洗練された個人的公正の概念に不可欠である理由の1つである。 0.74
One straightforward way to deal with correlations is to develop a model that is blind not only with respect to the sensitive attribute, but also to all the other variables with sufficiently high correlation with it. 相関に対処する簡単な方法の1つは、感度属性だけでなく、それと十分に高い相関関係を持つ他のすべての変数に対して盲目なモデルを開発することである。 0.82
This is a method known as suppression (Kamiran and Calders, 2012). これは抑圧(Kamiran and Calders, 2012)として知られる方法である。 0.79
Apart from the obvious issue in defining a good threshold for correlation above which a predictor should be removed, this approach has the main drawback in the potentially huge loss of legitimate information that may reside in features correlated with the sensitive attribute. 予測者が削除されるべき相関の適切なしきい値を定義する際の明らかな問題とは別に、このアプローチは、機密属性に関連付けられた機能に存在する可能性のある正当な情報の潜在的に大きな損失の主な欠点がある。 0.72
One line of research has tried to solve this issue by “cleaning” the training dataset in order to remove both the sensitive attribute and the information coming from the sensitive attribute “lurking” inside other features, while keeping the features. ある研究は、この問題を解決するためにトレーニングデータセットを“クリーン化”して、機密属性と機密属性から得られる情報の両方を他の機能内で“洗浄”し、機能を保ちながら削除した。 0.54
This can be done, e g , by using residuals of regressions of the (correlated) features on the sensitive attribute (Berk, 2009; Johndrow et al , 2019), i.e. これは例えば、センシティブな属性(Berk, 2009; Johndrow et al , 2019)上の(関連する)特徴の回帰残差を使用することで実現できる。
訳抜け防止モード: これはできる。 E, g, センシティブな属性(Berk, 2009 ; Johndrow et al, 2019 )上の(相関した)特徴の回帰の残余を使用することによって。
projecting the feature space in a subspace orthogonal to A. A に直交する部分空間で特徴空間を投影する。 0.73
However, it is tricky to account for dependencies on feature interactions. しかし、機能間の相互作用への依存を考慮するのは難しいです。 0.70
Another way of keeping information while removing “unfairness” due to the sensitive attribute is to learn a fair representation of the training dataset, see Zemel et al (2013); Louizos et al (2015); McNamara et al (2017); Calmon et al (2017), i.e. センシティブな属性による"不公平さ"を取り除く別の方法は、トレーニングデータセットの公平な表現を学ぶことである。Zemel et al (2013), Louizos et al (2015), McNamara et al (2017), Calmon et al (2017), i。 0.71
to learn a new set of variables Z, such that they are able to reconstruct X with as few errors as possible, while at the same time being as independent as possible of A7. 新しい変数集合 Z を学習するためには、できるだけ少ないエラーで X を再構成でき、同時に A7 をできるだけ独立にすることができる。 0.70
The idea is then that one can use any ML model on this “cleaned” representation of the original dataset and this will be fair by design. そのアイデアは、オリジナルデータセットの“クリーン”な表現で任意のmlモデルを使用することで、設計上公平になる、というものだ。
訳抜け防止モード: その考え方は オリジナルのデータセットの“クリーン化”表現で任意のMLモデルを使用することができる これは設計上公平です
Notice, however, that in most situations, when trying to remove from the data the dependence of A and X, individual fairness will be spoiled. しかし、ほとんどの状況において、データからaとxの依存を取り除こうとすると、個々の公平性が損なわれることに注意してください。 0.69
We shall discuss this in section 3.6. これを第3.6節で議論する。 0.63
Counterfactual frameworks (Kusner et al , 2017; Chiappa, 2019), that will be more thoroughly discussed in section 4, provide a clear way in which this similarity should be thought of: a male individual is similar to himself in the counterfactual world where he is a woman. 対人的枠組み(kusner et al , 2017; chiappa, 2019)は、第4節でより徹底的に議論され、この類似性を考慮すべき明確な方法を示している。
訳抜け防止モード: 事実上のフレームワーク(Kusner et al, 2017; Chiappa, 2019) 第4条でより徹底的に議論され,この類似性を考慮すべき明確な方法を提供する。 男性個人は、彼が女性である反事実の世界では、自分に似ている。
Notice that this is crucially different from fairness through unawareness approach: a male individual transported in the counterfactual world where he is a woman will have differ- これは不知のアプローチによる公平とは極めて異なることに注意しよう:彼が女性である反事実の世界に運ばれる男性には違いがある。 0.68
6E.g. gender may be correlated with income, but, depending on the problem, one may decide that the use of income, even if correlated with gender, is not a source of unfair discrimination. 6E。 性別は収入と関係があるが、問題によっては、性別と関係があるとしても、所得の使用は不公平な差別の源ではないと判断することができる。 0.75
In section 4 we will dwell more on this issue, namely that there may be some information correlated to the sensitive attribute but still considered “fair”. 第4節では、この問題についてさらに詳しく述べます。すなわち、機密性の高い属性に関連づけられた情報があるかもしれないが、それでも“フェア”とみなされる可能性があるということです。
訳抜け防止モード: 第4節では、この問題についてより詳しく述べます。 センシティブな属性と相関する情報もあるかもしれないが、それでも「公正」と見なされている。
7In the sense that it is hard to reconstruct A from Z. 7 Z から A を再構成することは困難である。 0.76
ences in other features as well, and such differences are precisely due to the causal structure among the variables (very roughly speaking, this is the “causal way” to account for correlations). 他の特徴も一致しており、そのような違いは変数間の因果構造によるものである(概してこれは相関を考慮に入れた「因果的方法」である)。 0.77
As an example, in the now popular 1973 Berkeley admission case (Bickel et al , 1975) where there is different admission rate between men and women, being a woman “causes” the choice of higher demanding departments, thus impacting the admission rate (in causal theory jargon, department choice is said to be a mediator from gender to admission). 例えば、1973年のバークレーの入場事件 (bickel et al, 1975) では、男女の入場率が異なるが、女性であることは、より高い要求される部署の選択を「原因」し、入場率に影響を与える(因果理論では、部門の選択は性別から入場までの仲介者であると言われている)。 0.71
In this case, a male transported in the counterfactual world where he is a woman would have himself chosen higher demanding departments, thus this feature would change as well. この場合、女性である反現実的な世界で輸送される男性は、自らが要求の高い部署を選ばせることになるので、これも変わるだろう。 0.75
In this case, a simple gender-blind model would not guarantee individual fairness. この場合、単純なジェンダーblindモデルでは個々の公平性が保証されない。 0.67
Indeed attribute flipping in general does not produce valid counterfactuals. 実際、属性の反転は一般に有効な反事実を生成しない。 0.55
More details on this will be given in section 4. 詳細は、第4節で述べられている。 0.62
We refer to Barocas et al (2019) for a thorough discussion on the Berkeley admission case from the point of view of causal reasoning. Barocas et al (2019) について、因果推論の観点から、バークレーの入院事件について徹底的な議論を行った。 0.59
Turning to the general similarity-based definition (1), some work has been done to address the problem of finding a suitable similarity metrics in feature space. 一般の類似度に基づく定義(1)に換算すると、特徴空間における適切な類似度指標を求める問題に対処する研究がいくつか行われている。 0.69
E.g. Dwork et al (2012) and Jung et al (2019); Ilvento (2019) introduce the possibility to learn a issue-specific distance from data and from the contributions of domain experts. など。 Dwork et al (2012) and Jung et al (2019); Ilvento (2019)は、データとドメインの専門家の貢献から問題固有の距離を学ぶ可能性を紹介している。 0.62
Indeed, the simple idea of using standard similarities, e g related to the euclidean distance on feature space, does not take into account the trivial fact that some feature are more important than other in determining the relationship of an individual to specific target. 実際、特徴空間上のユークリッド距離に関連する標準的な類似性を使うという単純な考え方は、ある特徴が個人と特定の対象との関係を決定する上で他の特徴よりも重要であるという自明な事実を考慮していない。 0.77
Namely, for two applicants for a loan, the difference in income is much more important than the difference in, say, age, or even profession. すなわち、ローンを申し込む2人の申請者にとって、収入の差は、例えば年齢や職業の違いよりもずっと重要である。 0.73
Thus, judging what does it mean to be similar with respect to a specific task is not that simple, and is in some sense connected also to the ground truth target variable Y . したがって、特定のタスクに関して類似することの意味を判断することはそれほど単純ではなく、ある意味では、基底真理対象変数 Y にも結びついている。 0.66
Indeed, Berk et al (2017) propose a notion of individual fairness as a penalty function – to be added to the risk minimization fitting – which shifts the concept of similarity from the feature space to the target space: namely two individuals are deemed similar if they have a similar value of the target variable. 実際、Berk et al (2017) は、個々人の公正性の概念をペナルティ関数として提案し、リスク最小化フィッティング(英語版)に追加し、特徴空間から対象空間へ類似性の概念をシフトさせる。
訳抜け防止モード: 実際、Berk et al (2017 ) は、個人公正をペナルティ関数として、リスク最小化フィッティングに追加することを提案した。 類似性の概念を特徴空間から目標空間にシフトさせ 目的変数に類似した値を持つ場合、2つの個人が類似していると考えられる。
Thus, this notion of individual fairness relies directly on the target attribute to define a task-specific distance. したがって、この個々の公平性の概念はタスク固有の距離を定義するためにターゲット属性に直接依存する。 0.67
Of course, this definition is prone to biases possibly present in the target. もちろん、この定義は、おそらくターゲットに存在するバイアスの傾向があります。 0.75
Broadly speaking, the Lipschitz notion (1) is sometimes referred to as Fairness Through Awareness (FTA), as opposed to Fairness Through Unawareness: in fact, even if they share the same principle of treating equally similar individuals, FTA is generally meant to use similarity metrics that are problem and target specific, i.e. 広義的には、リプシッツの概念 (1) はフェアネス・スルー・アウェアネス(Fairness through Awareness, FTA)と呼ばれることがあるが、これは「フェアネス・スルー・アウェアネス(Fairness through Awareness)」とは対照的である。
訳抜け防止モード: おおざっぱに言えば、 リプシッツの概念 (1 ) は、時に「Fairness through Awareness (FTA)」と呼ばれる。 不審を通した公正とは対照的に 類似した個人を同じように扱うという同じ原則を共有しています FTAは一般的には 問題や特定の目標である類似度を使って
that derive from an “awareness” of the possible impact, while FTU is a simple recipe that does not depend on the actual scenario. FTUは、実際のシナリオに依存しない単純なレシピである。
訳抜け防止モード: それは、考えられる影響の“認識”に由来する。 ftuは実際のシナリオに依存しない単純なレシピである。
5 5 0.85
3. Group fairness 3. グループフェアネス 0.76
Group fairness criteria are typically expressed as conditional independence statements among the relevant variables in the problem. グループフェアネスの基準は通常、問題の関連する変数間の条件付き独立性ステートメントとして表される。 0.70
There are three main broad notions of observational group independence, separation, sufficiency (Barocas fairness, et al , 2019). 観察群独立性、分離性、不十分性(barocas fairness, et al, 2019)の3つの主な概念がある。 0.77
Independence is strictly linked to what is known as Demographic Parity or Statistical Parity, separation is related to Equality of Odds and its relaxed versions, while sufficiency is connected to the concept of calibration and Predictive Parity. 独立性は、デモグラフィック・パリティ(Demographic Parity)または統計的パリティ(Statistical Parity)と呼ばれるものに厳密に関連しており、分離は、オッドの平等とその緩やかなバージョンに関連している。 0.68
There is a crucial aspect that discriminates independence independence criteria rely only criteria from the others: on the distribution of features and decisions, namely on (A, X, ˆY ), while separation and sufficiency criteria make use of the target variable Y as well. 独立独立性基準を識別する重要な側面は、他のものとの基準のみに依存する: 特徴と決定の分布、すなわち (a, x, ) に依拠するが、分離と十分性基準は対象変数 y も利用する。 0.75
This is an important thing to have in mind when trying to find your way in the zoo of fairness criteria in a specific case study: when using separation-based or sufficiency-based criteria one must be careful to check whether the target variable Y is itself prone to sources of bias and unfairness. これは、特定のケーススタディでフェアネス基準の動物園で自分の方法を見つけようとするときに、念頭に置いておく必要がある。 分離基準または不十分基準を使用する場合、ターゲット変数 y 自体がバイアスや不公平の原因となるかどうかを注意しなければならない。
訳抜け防止モード: これは心に留めておくべき重要なことです 公平基準動物園での道のりを 探そうとする特定のケーススタディで 分離基準または充足基準を用いる場合 気を付けて 対象変数y自体がバイアスや不公平の原因になりやすいかどうかをチェックする。
In the example of credit lending, if Y represents the decision of a loan officer, than separation-based and sufficiency-based criteria must be used with particular care, since Y can be itself biased against some groups of people. 債権貸付の例では、Yが融資担当者の判断を表している場合、Yは一部のグループに対して偏見を持つことができるため、分離基準や充足基準よりも特定のケアで使用される必要がある。 0.65
Actually, even if Y stands for the repayment (or lack of it) of the loan, a form of selection bias is very likely at work: we have that information only on applicants that received the loan in the first place, and these are almost surely not representative of the whole population of applicants. 実際には、もしyがローンの返済(またはそれの欠如)を意味するとしても、選択バイアスの形式は仕事において非常に可能性が高い。
訳抜け防止モード: 実は たとえ yはローンの返済(または返済の欠如)を表す。 選択バイアスの形式は、仕事において非常にありがたいものです。 その情報は そもそも 融資を受けた 受験者のみです。 これらはほぼ間違いなく、応募者全体の代表者ではない。
3.1. Independence The criterion of independence (Barocas et al , 2019) states that the decisions should be independent of any sensitive attribute: 3.1. 独立 the criterion of independence (barocas et al , 2019)では、決定は機密性の高い属性から独立すべきであると述べている。 0.69
ˆY ⊥⊥ A. (4) 通称「a」。 (4) 0.66
This can be also expressed as follows: P ( ˆY = 1 | A = a) = P ( ˆY = 1 | A = b), ∀a, b ∈ A, (5) i.e. これはまた、次のように表現することができる: p ( sy = 1 | a = a) = p ( sy = 1 | a = b), s a, b ∈ a, (5) i.e。 0.83
the ratio of loans granted to men should be equal to the ratio of loans granted to women. 男性に対するローンの比率は、女性に対するローンの比率と同等であるべきである。 0.73
The ratio of favorite outcomes is sometimes known as positive prediction ratio (ppr), thus independence is equivalent to requiring the same positive prediction ratio across groups identified by the sensitive features. 好ましくない結果の比率は、しばしば正の予測比 (ppr) と呼ばれるので、独立性は、敏感な特徴によって同定されたグループ間で同じ正の予測比を必要とする。 0.64
This form of independence is usually known as Demographic Parity (DP), statistical parity, or sometimes as group fairness.8 この形式の独立は通常、デモグラフィックパリティ(DP)、統計パリティ、あるいはグループフェアネス(グループフェアネス)と呼ばれる。
訳抜け防止モード: この形式の独立は通常、デモグラフィック・パリティ(DP)と呼ばれる。 統計的パリティ または グループフェアネス 8
Figure 1: example of demographic parity in gender in credit lending toy model. 図1:信用貸付玩具モデルにおける性別の人口差の例。 0.71
Figure 1 shows a very simple visualization of a model reaching demographic parity among men and women. 図1は、男性と女性の人口格差に達するモデルの非常に単純な可視化を示しています。 0.70
If some group has a significantly lower positive prediction ratio with respect to others, we say that demographic parity is not satisfied by the model decisions ˆY . ある群が他の群に比べて有意に低い正の予測比を持つ場合、人口比率はモデル決定によって満たされない。 0.71
In order to have a single number summarizing the amount of disparity, it is common to use either maximum possible difference or the minimum possible ratio of positive prediction ratios: a difference close to 0 or a ratio close to 1 indicate a decision system fair with respect to A in the sense of DP. 差の量を総和する単一の数を持つためには、最大可能な差または正の予測比の最小比のいずれかを使うのが一般的である: 0 に近い差または 1 に近い比率は、dp の意味で a に対して公正な決定系を示す。 0.81
Typically, some tolerance is considered by employing a threshold below (or above) which the decisions are still considered acceptable. 通常、いくつかの許容性は、決定が許容される下(以上)の閾値を使用することによって考慮される。
訳抜け防止モード: 一般的に ある程度の寛容さは 決定が許容される下(または上)のしきい値を採用すること。
3.1.1. Subtleties of demographic parity The meaning of DP is intuitive only to a superficial analysis. 3.1.1. 人口統計学的パリティの微妙さ dpの意味は表面分析のみ直感的である。 0.61
For example, one may at first think that removing the sensitive attribute from the decision making process is enough to guarantee independence and thus demographic parity. 例えば、意思決定プロセスからセンシティブな属性を取り除くことは、独立性を保証するのに十分であり、したがって人口統計学的に同等であると考えることができる。 0.59
But, in general, this is not the case. しかし、一般的にはそうではない。 0.61
Take the credit lending example and assume that, for whatever reason, women tend to actually pay back their loans with higher probability than men. 融資の例を見て、何らかの理由で、女性は男性よりも高い確率で実際にローンを返済する傾向があると仮定する。 0.71
If this is the case, it is reasonable to assume that a rating variable that we call R will be higher for women than for men. もしそうなら、私たちがRと呼ぶ評価変数が男性よりも女性の方が高いと仮定するのは妥当である。 0.77
In this scenario, the sensitive attribute gender (A) is correlated with rating. このシナリオでは、敏感な属性性(a)は格付けと相関する。 0.65
If the model uses only rating (but not gender) to compute its decision, there will be a higher rate of loans granted to women than to men, resulting in a demographic disparity among these groups. モデルがその決定を計算するために評価(性別ではなく)のみを使用する場合、女性に与えられるローンの割合は男性よりも高く、結果としてこれらのグループ間で人口格差が生じる。 0.82
In this case, if you want to reach DP, the model needs to favor men over women, granting loans to men with a lower rating threshold with respect to women. この場合、dpに到達したい場合は、モデルが女性よりも男性を優先し、女性に対する格付け閾値の低い男性にローンを与える必要がある。 0.69
8Demographic parity is a very common concept in the literature on fairness in ML. 8デモグラフィパリティはMLの公平性に関する文献において非常に一般的な概念である。 0.62
Kamiran and Calders (2009) provides one of the first mathematical formulation (even if without actually using the kamiran and calders (2009) は、(実際にそれを使用しなくても)最初の数学的定式化の1つを提供する。 0.60
now common nomenclature). 通称は「nomenclature」。 0.61
We refer to Barocas et al (2019) and Chouldechova (2017) for a general account. Barocas et al (2019) と Chouldechova (2017) を概説する。 0.53
6 6 0.85
We try to summarize in a non-exhaustive list, a set of scenarios in which it might be reasonable to take into account demographic parity, among other metrics: 我々は、人口統計の同値性を考慮するのが合理的なシナリオのセットである、非排他的リストにまとめようとしている。 0.60
• when you want to actively enforce some form of equality between groups, irrespective of all other information. • 他のすべての情報に関係なく、グループ間のある種の平等を積極的に実施したい場合。 0.74
Indeed there are some characteristics that are widely recognized to be independent in principle of sensitive attributes, e g intelligence and talent, and there may be the need to enforce an independence in problems where the decisions is fundamentally linked to those characteristics; more in general, there may be reasons to consider unfair any relation among A and Y , even if the data (objective data as well) is telling differently; 実際、知性や才能といった繊細な属性の原則で独立であると広く認識されているいくつかの特徴があり、決定がこれらの特徴と根本的に結びついている問題において独立を強制する必要性があるかもしれない。
訳抜け防止モード: 実際 いくつか特徴があります 知性や才能といった繊細な属性の原則で 独立していると広く認識されています そして、決定がそれらの特徴と根本的に結びついている問題において、独立を強制する必要性があるかもしれない。 より一般に、a と y の間に不公平な関係を考える理由があるかもしれない。 データ(客観的データも)が違っていても
• (somehow similar to the previous) when you deem that in your specific problem there are hidden historical biases that impact in a complex way the entire dataset; • (少し前と似ている) 特定の問題に、データセット全体の複雑な方法で影響する、隠れた歴史的バイアスがあると考えるとき。 0.79
• when you cannot trust the objectivity of the target variable Y , then demographic parity still makes sense, while other metrics don’t (e g separation). • 対象変数 Y の客観性を信頼できない場合、他の指標が(例えば分離)できないのに対して、人口統計学的パーティは依然として理にかなっている。 0.70
3.1.2. Conditional demographic parity Another version of the independence criteria is the one of Conditional Demographic Parity (CDP), first introduced in Kamiran et al (2013). 3.1.2. 条件付き人口パーティ 独立基準の別のバージョンは条件付き人口パーティ(CDP)であり、2013年にカミランらによって初めて導入された。 0.58
In the example given above, we may think that a fairer thing to do, with respect to full independence, is to require independence of the decision on gender only for men and women with the same level of rating. 上述の例では、完全な独立性に関して、公平にすべきことは、同じ格付けの男女に対してのみ、性別に関する決定の独立性を要求することであると考えるかもしれない。 0.73
In other words, if a man and a woman have both a certain level of rating, we want them to have the same chance of getting the loan. 言い換えれば、もし男女が一定の水準のレーティングを持っているなら、私たちは彼らに同じ機会を貸与することを望んでいます。 0.70
This goes somewhat in the direction of being an individual form of fairness requirement, since parity is assessed into smaller groups with respect to the entire sample. これは、パリティがサンプル全体に関してより小さなグループに評価されるため、個別のフェアネス要件の形式となるという方向にいく。 0.75
Formally, this results in requiring ˆY independent of A given R, 形式的には、この結果は、与えられた R から yY を独立させます。 0.54
ˆY ⊥⊥ A | R, (6) は、A | R。 (6) 0.72
or, in other terms: P ( ˆY = 1 | A = a, R = r) = P ( ˆY = 1 | A = b, R = r), 別の言い方をすれば P ( 1 | A = a, R = r) = P ( 1 | A = b, R = r)
訳抜け防止モード: 別の言い方をすれば P ( s Y = 1 | A = a, R = r ) = P ( s Y = 1 | A = b, R = r ) である。
∀a, b ∈ A,∀r. a, b ∈ a, r である。 0.49
(7) This seems a very reasonable requirement in many reallife scenarios. (7) 多くの現実シナリオにおいて、これは非常に合理的な要件である。 0.71
For example, if you think of a recruitment setting where you don’t want to bias women against men, but still you want to recruit the most skilled candidates, you may require your decision to be independent of gender but conditional on a score based on the curriculum and past work experiences: among people with an “equivalent” set of skills, you want to recruit men and women with the same rate. 例えば、男性に対して女性を偏見付けたくないが、最も熟練した候補者を採用したいという採用状況を考えると、カリキュラムや過去の仕事経験に基づいたスコアに基づいて、性別に依存しない決定を下す必要があるかもしれません。
訳抜け防止モード: 例えば、もし 女性を男性に偏見を与えたくないような採用環境を考えてみてください。 それでも最も熟練した候補者を 募集したいでしょう スキルのセットを持っている人の間では、あなたは性別とは無関係で、カリキュラムや過去の仕事経験に基づいてスコアを条件付けする必要があるかもしれません。 同じ率で 男女を雇いたい
In other words, the only disparities that you are willing 言い換えれば あなたが望む唯一の格差は 0.56
7 Figure 2: example of a subtlety of demographic parity: in order to reach demographic parity between men and women and still using rating as fundamental feature, one must use a different threshold between the groups, thus manifestly treating differently men and women. 7 図2: 人口格差の微妙な例: 男女間の人口格差に到達し、依然としてレーティングを基本的な特徴として使用するためには、グループ間で異なるしきい値を使用しなければならない。 0.79
Thus, because of interdependence of X and A, not only it is not enough to remove the sensitive attribute from the decision making process, but if you want to have DP you need, in general, to treat different groups in different ways, precisely in order to compensate for the (unwanted) effect of this dependence. したがって、X と A の相互依存のため、決定過程からセンシティブな属性を取り除くのに十分ではないだけでなく、DP を欲しければ、この依存の(望ましくない)効果を正確に補うために、様々な方法で異なる群を扱う必要がある。 0.68
This is somehow the opposite of an intuitive notion of fairness! これは、直感的な公正の概念とは逆です! 0.74
Figure 2 displays this example: to reach equal ppr, one must use a different rating threshold for each group. 図2は、同じprに達するためには、各グループに対して異なる評価しきい値を使用する必要がある。 0.66
This, in turn, reveals another subtlety: even if your dataset and your setting does not apparently contain any sensitive features, discrimination could lurk in via correlations to sensitive features that you are not even collecting. データセットと設定が明らかに機密性のある機能を含んでいないとしても、識別は、収集していない機密性のある機能との相関によって引き起こされる可能性がある。 0.57
We want to stress here what we think is a crucial aspect: another possibility to reach DP would be to use neither gender nor rating in making decisions, i.e. DPに到達するもう一つの可能性は、意思決定に性別も格付けも使わないことである。
訳抜け防止モード: ここで強調したいのは、重要な側面だと思います。 DPに到達する別の可能性として、性別も格付けも意思決定に用いないことが挙げられる。
trying to remove all gender information from the dataset. データセットからすべての性別情報を 取り除こうとしています 0.69
Notice that this could be problematic for the accuracy of your decisions, since it’s plausible that, by removing all variables correlated to A, information useful to estimate the target is lost as well. これは、aに関連付けられたすべての変数を削除することで、ターゲットを推定するのに有用な情報が失われる可能性があるため、あなたの決定の正確性に問題が生じる可能性があることに注意してください。
訳抜け防止モード: これはあなたの決定の正確性に問題になるかもしれません。 それはあり得ることですから Aと相関するすべての変数を削除することで、ターゲットを推定するのに有用な情報も失われる。
This is called suppression, and was discussed already in section 2, together with the concept of fair representation, by which one tries to remove all sensitive information from the dataset while keeping as much useful information as possible. これは抑圧と呼ばれ、セクション2で既に議論されており、公正表現の概念とともに、可能な限り有用な情報を保持しながらデータセットからすべての機密情報を除去しようとする。 0.69
Another possible flaw is the following: if it is true that women repay their loans with higher probability, is it really fair to have demographic parity between men and women? もう一つ考えられる欠点は、もし女性が高い確率でローンを返済していると本当なら、男女間の人口格差は本当に公平なのだろうか? 0.72
Why the bank should agree to grant loans with the same rate to groups that actually pays back with different probabilities? なぜ銀行は、異なる確率で返済するグループに対して同じ金利の融資を承認すべきなのか。 0.76
Should we stick to actual repayment rates or we should ask why these probabilities are different and if this is possibly due to gender discrimination in the first place? 実際の返済率に固執すべきか、それとも、なぜこれらの確率が異なるのか、そもそもそれが性差別によるものなのかを問うべきだろうか? 0.63
to accept between male and female candidates are those justified by curriculum and experience. 男女の候補者を 受け入れるのは カリキュラムと経験によって 正当化されている。 0.67
2019): ˆY ⊥⊥ A | Y. 2019): 原題は『A | Y』。 0.72
(10) Unfortunately, also in this case one must be really careful, because the variable that you are conditioning on might itself be a source of unfair discrimination. (10) 残念ながら、このケースでは、あなたが条件付けしている変数自体が不公平な差別の源である可能性があるので、本当に注意する必要があります。 0.71
For example, it might well be that rating is higher for women not because they actually pay back their debts more likely than men, but because the rating system is biased against men. 例えば、女性にとって格付けが高いのは、実際に男性よりも負債を返済する確率が高いからではなく、男性に対して格付けシステムが偏っているからかもしれない。 0.71
And this may be due to self-fulfilling prophecy: if men have lower rating they may receive loans with higher interest rates, and thus have a higher probability of not paying them back, in a self-reinforcing loop. もし男性の方が格付けが低くなれば、金利の高いローンを受け取り、それゆえ、自己申告ループで返済しない確率が高くなる。
訳抜け防止モード: これは自己 - 予言を満たすためかもしれない : もしも 男性はレーティングが低い 利率の高い融資を受ける可能性があり、それ故に返済しない確率が高い。 自己-強化ループ内で。
Moreover, it may be not be so straightforward to select the variables to condition on: why condition on rating and not, e g , on level of income, or profession, etc...? さらに、条件付けする変数を選択するのはそれほど簡単ではないかもしれない:なぜ格付けの条件が、収入のレベルや職業のレベルなどであるのか? 0.71
In other terms P ( ˆY = 1 | A = a, Y = y) = P ( ˆY = 1 | A = b, Y = y), (11) 言い換えれば P ( y = 1 | A = a, Y = y) = P ( y = 1 | A = b, Y = y) (11) 0.60
∀a, b ∈ A, y ∈ {0, 1}. a, b ∈ A, y ∈ {0, 1} である。 0.80
Equivalently, disparities in groups with different values of A (male and female) should be completely justified by the value of Y (repayment or not). 同様に、a(男性と女性)の異なる値を持つグループの差異は、y(返済の有無)の値によって完全に正当化されるべきである。 0.71
As in the conditional independence case, this seems a very reasonable fairness requirement, provided that you can completely trust the target variable. 条件付き独立性の場合のように、ターゲット変数を完全に信頼できるのであれば、これは非常に合理的な公平性要件に思える。 0.71
Namely, one should be extremely careful to check whether the target Y is not itself a source of bias. すなわち、ターゲットYがそれ自体がバイアスの源ではないかどうかを極めて慎重に確認する必要がある。 0.69
Finally, in line with what outlined above for demographic parity, one may argue that women’s curricula and work experiences tend to be on average different than those of male candidates for historical reasons and for a long-lasting (and die-hard) man-centered society. 最後に、人口順に概説したように、女性のカリキュラムや仕事経験は、歴史的理由から男性候補者と平均的に異なる傾向にあり、長く続く(そして死の固い)人間中心の社会であると主張する者もいる。 0.71
This may suggest that plain demographic parity could be more appropriately enforced in this case to reach a “true” equality. これは、このケースでは「真の」平等に達するために、平凡な人口比率がより適切に強制される可能性があることを示唆している。
訳抜け防止モード: これはおそらく この場合、平易な人口比率は「真の」平等に達するためにより適切に強制される可能性がある。
For example, if Y instead of reflecting true repayment was the outcome of loan officers’ decision on whether to grant the loans, it could incorporate bias, thus we it would be risky to assess fairness with direct comparisons with Y . 例えば、もし Y が真の返済を反映するのではなく、融資を許可するかどうかという融資担当者の判断の結果であるなら、バイアスが伴う可能性があるため、Y と直接比較して公正性を評価するのは危険である。 0.53
Moreover, as we said above, even in the objective case where Y is the actual repayment, a form of selection bias would likely distort the rate of repayment. さらに、上述したように、Yが実際の返済である客観的な場合においても、選択バイアスの形式は返済率を歪める可能性が高い。 0.73
Incidentally, notice that pushing to the extreme the notion of conditional demographic parity, i.e. ちなみに、極端に押すと条件付き人口均等という概念に気づく。 0.51
conditioning on all the (non-sensitive) variables, one has すべての(非感受性の)変数を条件付けする 0.73
ˆY ⊥⊥ A | X, (8) は、A | X。 (8) 0.70
i.e. P ( ˆY = 1 | A = a, X = x) = P ( ˆY = 1 | A = b, X = x), (9) i.e. P(s) = 1 | A = a, X = x) = P(s) = 1 | A = b, X = x) (9) 0.75
∀a, b ∈ A,∀x ∈ X ; s , b ∈ A, s , x ∈ X ; 0.73
meaning that a male and a female with the same value for all the other features must be given the same outcome. つまり、他の全ての特徴に対して同じ価値を持つ男性と女性が同じ結果を得る必要があることを意味する。 0.78
This criterion is reachable by a gender-blind model, thus is strictly connected to the notion of FTU. この基準はジェンダー・ブラインドモデルによって到達可能であり、したがってFTUの概念と厳密に結びついている。 0.60
We can indeed notice – but leave the details to section 3.6 – that conditioning is equivalent to restrict the groups of people among which we require parity, thus is a way to go in the direction of obtaining an individual criterion. 実際に気づくことはできるが、詳細は第3.6節に残す ― 条件付けは、パリティを必要とする人々のグループを制限するのに等価であるので、個々の基準を得る方向に進む方法である。 0.69
3.2. Separation Independence and conditional independence do not make use of the true target Y . 3.2. 分離 独立性と条件付き独立性は、真の目標yを使用しない。 0.73
What if, instead of conditioning over rating R we condition on the target Y ? 評価Rを条件付けする代わりに、ターゲットYを条件にするか? 0.64
This is equivalent to requiring the independence of the decision ˆY and gender A separately for individuals that actually repay their debt and for individuals that don’t. これは、実際に負債を返済する個人とそうでない個人を別にして、決定の独立性を求めることと等価である。 0.68
Namely, among people that repay their debt (or don’t), we want to have the same rate of loan granting for men and women. つまり、借金を返済する(返済しない)人々の中で、私たちは男性と女性に同じローンを払いたいのです。 0.66
This concept has been called separation (Barocas et al , この概念は分離(Barocas et al )と呼ばれる。 0.83
We can express separation in terms of what are known in statistics as type I and type II errors. 統計学では、タイプiとタイプiiのエラーとして知られているものから分離を表現できる。 0.68
Indeed, it is easy to see that the two conditions in equation (11) (one for y = 1 and one for y = 0) are equivalent to requiring that the model has the same false positive rate and false negative rate across groups identified via A. 実際、方程式 (11) の2つの条件(y = 1 と y = 0 の2つの条件)は、モデルが a によって同定された群間で同じ偽陽性率と偽陰性率を持つことを要求することと等価であることは容易に分かる。 0.79
False positives and false negatives are precisely type I and type II errors, respectively. 偽陽性と偽陰性はそれぞれ正確にタイプIとタイプIIのエラーである。 0.82
Namely, individuals that are granted loans but are not able to repay, and individuals that are able to repay but are not granted loans. すなわち、貸付が許されているが返済できない個人と、返済できるが貸付が許されていない個人である。 0.61
This is known as Equality of Odds (Hardt et al , 2016), and is thus the requirement of having the same type I and type II error rates across relevant groups, as displayed in Figure 3. これは"equal of odds"(hardt et al , 2016)として知られているため、図3に示すように、関連するグループ間で同じタイプiとタイプiiのエラー率を持つ必要がある。 0.77
There are two relaxed version of this criterion: この基準の緩和版は2つあります 0.68
• Predictive Equality: across groups, •予測平等: グループにまたがって 0.68
equality of false positive rate P ( ˆY = 1 | A = a, Y = 0) = P ( ˆY = 1 | A = b, Y = 0), 偽陽性率の平等 P ( s = 1 | A = a, Y = 0) = P ( s = 1 | A = b, Y = 0) 0.74
∀a, b ∈ A, • Equality of Opportunity: equality of false negative a, b ∈ A, ※機会の平等:偽陰性の平等 0.67
rate across groups, P ( ˆY = 0 | A = a, Y = 1) = P ( ˆY = 0 | A = b, Y = 1), グループ間での利率 P ( s = 0 | A = a, Y = 1) = P ( s = 0 | A = b, Y = 1) である。 0.75
a, b ∈ A. a, b ∈ a である。 0.84
While demographic parity, and independence in general, focuses on equality in terms of acceptance rate (loan grating rate), Equality of Odds, and separation in general, 人口統計学的パリティと一般的に独立性は、受け入れ率(ローン・グレーティング・レート)、オッズの平等、および一般に分離の観点からの平等に焦点を当てている。 0.76
8 8 0.85
take into account the other side of the coin, i.e. 硬貨の反対側、すなわちその側面を考慮に入れる。 0.55
parity given the model decision. パリティは モデル決定を下した 0.72
3.3. Sufficiency Sufficiency (Barocas et al , 2019) takes the perspective of people that are given the same model decision, and requires parity among them irrespective of sensitive features. 3.3. 不十分 満足度(Barocas et al , 2019)は、同じモデル決定を下された人々の視点を捉え、敏感な機能に関係なく、彼ら間での公平性を必要とする。 0.58
While separation deals with error rates in terms of fraction of errors over the ground truth, e g the number of individuals whose loan request is denied among those who would have repaid, sufficiency takes into account the number of individuals who won’t repay among those who are given the loan. 例えば、ローンの請求が拒否された人のうち、返金された人のうち、貸付を拒否された人の割合は、貸付を受けた人の間で返金しない人の数を考慮に入れます。
訳抜け防止モード: 分離は、基底的真理上の誤差のごく一部という観点から、エラー率を扱う。 例えば、返済した者のうちローンの請求が拒否された者の数。 満足度は、その人の数を考慮に入れます 融資を受けた人たちの間では返済されない。
Mathematically speaking, this is the same distinction you have between recall (or true positive rate) and precision, i.e. 数学的には、これはリコール(あるいは真正率)と精度、すなわち正確さの区別と同じです。 0.68
P ( ˆY = 1 | Y = 1) and P (Y = 1 | ˆY = 1), respectively. P(Y) = 1 | Y = 1) と P(Y) = 1 | Y = 1) である。 0.87
A fairness criterion that focuses on this type of error rate is called Predictive Parity (Chouldechova, 2017), also referred to as outcome test (Verma and Rubin, 2018; Mitchell et al , 2018): このタイプのエラー率に焦点を当てたフェアネス基準は予測パリティ(Chouldechova, 2017)と呼ばれ、結果テスト(Verma and Rubin, 2018; Mitchell et al , 2018)とも呼ばれる。 0.75
P (Y = 1 | A = a, ˆY = 1) = P (Y = 1 | A = b, ˆY = 1), P (Y = 1 | A = a, >Y = 1) = P (Y = 1 | A = b, >Y = 1) である。 0.94
∀a, b ∈ A, (12) a, b ∈ A, (12) 0.76
i.e. the model should have the same precision across sensitive groups. i.e. モデルは敏感なグループで 同じ精度を持つべきです 0.74
If we require condition (12) to hold for the case Y = 0 as well, then we get the following conditional independence statement: y = 0 の場合に対しても条件 (12) が必要ならば、次の条件付き独立性ステートメントが得られる。 0.73
Y ⊥⊥ A | ˆY , which is referred to as sufficiency (Barocas et al , 2019). 略称は「A」。 sufficiency (Barocas et al , 2019) と呼ばれる。 0.47
Predictive Parity, and its more general form of sufficiency, focuses on error parity among people who are given the same decision. 予測パリティ(Predictive Parity)は、そのより一般的な形式であり、同じ決定を下された人々のエラーパリティに焦点を当てている。 0.64
In this respect, Predictive Parity takes the perspective of the decision maker, since they group people with respect to the decisions rather than the true outcomes. この点において、予測的パリティは、真の結果よりも意思決定に関して人々をグループ化するため、意思決定者の視点を取る。 0.68
Taking the credit lending example, the decision maker is indeed more in control of sufficiency rather than separation, since parity given decision is something directly accessible, while parity given truth is known only in retrospect. 信用融資の例を挙げると、意思決定者は、パリティが与えられた決定は直接アクセス可能であり、パリティが与えられた真理は振り返ってのみ知られているので、分離よりも不十分さを実際に制御している。 0.61
Moreover, as we have discussed above, the group of people who are given the loan ( ˆY = 1) is less prone to selection bias than the group of people who repay the loan (Y = 1): indeed we can only have the information of repayment for the ˆY = 1 group, but we know nothing about all the others ( ˆY = 0). さらに、前述したように、ローン(y = 1)を与えられた人々のグループは、ローンを返済するグループ(y = 1)よりも、選択バイアスの傾向が低い: 実際、私たちは、そのグループに対する返済の情報しか持たないが、他のすべてのグループについて何も知らない(y = 0)。 0.71
As you may notice, going along a similar reasoning, one can define other group metrics, such as Equality of Accuracy across groups: P ( ˆY = Y | A = a) = P ( ˆY = Y | A = b), for all a, b ∈ A, i.e. 同様に、同様の推論に沿って、群間の精度の等式 (Equality of Accuracy) など、他の群を定義できる: P ( >Y = Y | A = a) = P ( >Y = Y | A = b) ; すなわちすべての a, b ∈ A に対して。 0.85
focusing on over unconditional errors, and others (Verma and Rubin, 2018). 非条件エラーなどに焦点を当てている(VermaとRubin, 2018)。 0.64
Zafar et al (2017) introduce the notion of disparate mistreatment to refer to all group fairness criteria relying on Zafar et al (2017)は、異なる不適切な扱いの概念を導入し、すべてのグループフェアネス基準に依拠する。 0.55
9 Figure 3: Example of Equality of Odds between men and women: false negative and false positve rates must be equal across groups. 9 図3: 男女間のオッドの平等の例: 偽陰性と偽陰性率は、グループ間で等しくなければならない。 0.83
focuses on equality in terms of error rate: the model is fair if it is as efficient in one group as it is in the other. 誤差率の観点からは等式に焦点をあてる: モデルが一方の群において他方の群と同様に効率的であるならば公平である。 0.75
As remarked above, in order to assess fairness in terms of model errors, one needs to trust the ground truth Y . 上述したように、モデルエラーの観点から公平性を評価するためには、基礎的真実Yを信頼する必要がある。 0.68
The difference between Predictive Equality and Equality of Opportunity is the perspective from which equality is required: Predictive Equality takes the perspective of people that won’t repay the loan, while Equality of Opportunity takes the one of people that will repay. 予測的平等(Predictive Equality)と機会的平等(Equality of Opportunity)の相違は、平等が要求される視点である: 予測的平等(Predictive Equality)は、ローンを返済しない人々の視点を、機会的平等(Equality of Opportunity)は返済する人々の1つを、それぞれとします。
訳抜け防止モード: 予測的平等と機会的平等の相違は、平等が要求される視点である 予測的平等とは、ローンを返済しない人々の視点である。 Equality of Opportunity(機会の平等)は、返済する人々の1つである。
Depending on the problem at hand, one may consider either of these two perspectives as more important. 問題によっては、これらの2つの視点のどちらかがより重要であると考えることができる。 0.67
For example, Predictive Equality may be considered when we want to minimize the risk of innocent people from being erroneously arrested: in this case it may be reasonable to focus on the parity of among innocents. 例えば、予測的平等(Predictive Equality)は、無実の人々が誤って逮捕されるリスクを最小限に抑えたい場合に考慮される。
訳抜け防止モード: 例えば 予測的平等は 罪のない人々が不当に逮捕されるリスクを最小限に抑えたいのです この場合、無実者の同質性に重きを置くのが妥当かもしれない。
Both in the credit lending and job listing examples, on the other hand, it may be reasonable to focus on Equality of Opportunity, i.e. 一方、信用貸付と求人リストの例では、機会の平等(Equality of Opportunity)に焦点を当てることは合理的である。 0.67
on the parity among people that are indeed deserving. 実際に保存している人々の間で 平等に保たれています 0.41
Here follows a non exhaustive set of situations in which separation criteria may be suitable: 以下は、分離基準が適切である可能性のある非徹底的な状況のセットである。 0.62
• when your target variable Y is an objective ground •対象変数yが客観的な接地であるとき 0.73
truth; • when you are willing to make discrimination as long 真実です 一、差別する意思があるときは、 0.44
as they are justified by actual trustable data; 信頼できるデータによって正当化されるからです 0.65
• when you do not want to actively enforce an “ideal” form of equality, and you want to be as equal as possible given the data. • 積極的に“理想的”な平等を強制したくない場合、データを考慮すれば、可能な限り平等にしたいのです。 0.73
We can summarize by saying that that separation, being a concept of parity given the ground truth outcome, is a notion that takes the point of view of people that are subject to the model decisions, rather than that of the decision maker. 根拠の真理を前提としたパリティの概念としての分離は、意思決定者ではなく、モデル決定の対象である人々の視点を採る概念である、と要約することができる。 0.67
In the next subsection, instead, we shall 次の節では、代わりに、我々は、 0.66
disparity of errors, thus, in general, all group metrics dealing with comparisons among decisions ˆY and true outcomes Y . 誤差の相違により、一般には、決定間の比較を扱うすべての群計量は、Y と真の結果 Y である。 0.69
3.4. Group fairness on scores 3.4. スコア上のグループフェアネス 0.66
when P (Y = 1 | S = s) = s, いつ P (Y = 1 | S = s) = s, 0.78
(16) i.e. if the model assigns a score s to 100 people then, on average, 100× s of them will actually be positive. (16) i.e. もしモデルがスコアを100人に割り当てるなら、平均すると100倍のスコアが正になるでしょう。
訳抜け防止モード: (16) i.e. モデルがスコアを100人に割り当てるなら 平均すると そのうち100×sは、実際に肯定的である。
Writing down the condition for sufficiency in score: スコアの不十分さの条件を書き留める。 0.43
In most cases, even in classification setting, the actual output of a model is not a binary value, but rather a score 多くの場合、分類設定においても、モデルの実際の出力はバイナリ値ではなくスコアである。 0.66
S ∈ R, estimating the probability, for each observation, to S ∈ R, それぞれの観測の確率を推定する 0.73
have the target equal to the favorable outcome (usually labelled 1). 目標が好ましい結果(通常、ラベル付き1)に等しいようにする。 0.70
Then, the final decision is made by the following t-threshold rule: 最終決定は次のt-thresholdルールによって下される。 0.76
(cid:40) P (Y = 1 | S = s, A = a) = P (Y = 1 | S = s, A = b), (cid:40) P(Y = 1 | S = s, A = a) = P(Y = 1 | S = s, A = b) 0.80
∀a, b ∈ A,∀s, a, b ∈ a, s である。 0.47
(17) it is clearly related to what can be called Calibration within Groups (Kleinberg et al , 2016): (17) これは、グループ内でキャリブレーションと呼ばれるものに関連している(kleinberg et al , 2016)。 0.78
ˆY = 1 S ≥ t, 0 S < t. ※Y= 1 S ≥ t, 0 S < t。 0.72
(13) P (Y = 1 | A = a, S = s) = s (13) P(Y = 1 | A = a, S = s) = s 0.85
(18) Most of the things we have outlined for group fairness metrics regarding ˆY can be formulated for the joint distribution (A, Y, S) as well: (18) 群フェアネス指標について概説したほとんどのことは、結合分布(A, Y, S)についても定式化できる。 0.72
independence S ⊥⊥ A, separation S ⊥⊥ A | Y, sufficiency Y ⊥⊥ A | S. 独立性 s , a, separation s , a | y, sufficiency y , a | s である。 0.75
(14) These formulations provide stronger constraints on the model with respect to the analogous with ˆY , e g Jiang et al (2020); Oneto and Chiappa (2020) call the condition S ⊥⊥ A strong demographic parity. (14) これらの定式化は、モデルに対して、条件 s を強い人口統計学的パリティ(英語版)と呼ぶ sy , e g jiang et al (2020); oneto と chiappa (2020) の類似性に関して強い制約を与える。
訳抜け防止モード: (14) これらの定式化により、モデルに対するより強い制約が与えられる。 e g Jiang et al (2020 ) Oneto と Chiappa (2020 ) はこの条件を S と A strong population parity と呼んでいる。
For instance, all three criteria in their form (5), (11), (12), i.e. 例えば、これらの3つの基準はいずれも (5), (11) (12) である。 0.73
with constraints on the joint distribution (A, Y, ˆY ) can effectively be satisfied by defining group dependent thresholds t on black-box model outcomes S (a technique that goes under the name of postprocessing (Barocas et al , 2019)), while this is not the case for (14). 群依存しきい値 t をブラックボックスモデルの結果 S (ポストプロセッシング(英語版)(Barocas et al , 2019) で定義することで、結合分布(A, Y, >Y )の制約を効果的に満たすことができるが、(14) の場合はそうではない。 0.75
Instead of requiring conditions on the full distribution of S as in (14), something analogous to the “binary versions” of group fairness criteria have been defined simply by requiring parity of the average score (Kleinberg et al , 2016). 14) における s の完全な分布の条件を必要とする代わりに、群フェアネス基準の「バイナリバージョン」と類似するものは、単に平均スコアのパリティを要求するだけで定義されている(kleinberg et al , 2016)。 0.81
Balance of the Negative Class, defined as 負のクラスのバランス; 負のクラス 0.65
E(S | Y = 0, A = a) = E(S | Y = 0, A = b), E(S | Y = 0, A = a) = E(S | Y = 0, A = b) 0.81
∀a, b ∈ A, (15) a, b ∈ A, (15) 0.76
corresponds to Predictive Equality, while Balance of the Positive Class (same as (15) with Y = 1) corresponds to Equality of Opportunity. 予測等級(英語版)(Predictive Equality) に対応し、正のクラス(英語版)(Y = 1) のバランスは機会の等級に対応する。 0.63
Notice that these two last definitions fall into the one given in subsection 3.2 when S = ˆY . これら2つの最後の定義は、S = .Y のとき、第3.2節で与えられる定義に該当する。 0.57
Requiring both balances is of course equivalent to requiring EO. 両バランスは、もちろんEOと同等である。 0.65
AUC parity, namely the equality of the area under the ROC for different groups identified by A, can be seen as the analogous of the equality of accuracy. AUCパリティ(AUC parity)、すなわち、Aによって特定される異なる群に対するROCの下での領域の等式は、精度の等式に類似していると見なすことができる。
訳抜け防止モード: AUCパリティ(AUC parity)、すなわち、Aによって特定される異なる群に対するROCの下での領域の等式。 精度の平等の類似と見なすことができます
Finally, notice that, the score formulation of sufficiency is connected to the concept of calibration. 最後に、充足率のスコア定式化が校正の概念に結びついていることに気付く。 0.65
Calibration holds 10 – actually a consequence of it. 校正ホールド 10 実際にそれが原因です。 0.62
This condition is in general not so hard to achieve, and it is often satisfied “for free” by most models. この条件は一般的には達成がそれほど難しくなく、ほとんどのモデルで“無償で”満足されることが多い。 0.83
See Barocas et al (2019) for more details. 詳細はBarocas et al (2019)を参照。 0.69
3.5. Incompatibility statements 3.5. incompatibilityステートメント 0.72
It is interesting to analyse the relationship among different criteria of fairness. 公平性の異なる基準間の関係を分析することは興味深い。 0.68
In the next subsection 3.6 we shall discuss in detail the connections between individual and group notions, while here we focus on differences among various group criteria. 次の3.6では、個別概念とグループ概念の関連について詳細に議論し、ここでは、様々なグループ基準の相違に焦点をあてる。 0.60
We have already seen that each of them highlights one specific aspect of an overall idea of fairness, and we may wonder what happens if we require to satisfy multiple of them at once. 私たちは、それぞれがフェアネスの全体的な考え方の1つの特定の側面を強調しているのをすでに見てきました。
訳抜け防止モード: それぞれが、公正という全体的な考え方の1つの特定の側面を強調しているのをすでに見てきました。 一度に複数の人を 満たす必要があるとしたら どうなるのかしら?
The short answer is that, in general, it is not possible. 短い答えは、一般的には不可能であるということである。 0.72
Most incompatibility results have been provided by Chouldechova (2017); Kleinberg et al (2016); Barocas et al (2019). ほとんどの非互換性の結果はChouldechova (2017)、Kleinberg et al (2016)、Barocas et al (2019)によって提供された。 0.78
We take the following three results from the formulation of Barocas et al (2019). Barocas et al (2019) の定式化による以下の3つの結果を得た。 0.71
1. if Y is binary, Y (cid:54)⊥⊥ S and Y (cid:54)⊥⊥ A, then separation and independence are incompatible. 1. Y がバイナリであれば、Y (cid:54) と S (cid:54) と Y (cid:54) は、分離と独立は相容れない。 0.67
In other words, to achieve both separation and independence, the only possibility is that either the model is completely useless (Y ⊥⊥ S), or the outcome is independent of the sensitive attribute (Y ⊥⊥ A), which implies an equal base rate for different sensitive groups. 言い換えれば、分離と独立性の両方を達成するためには、モデルが完全に役に立たない(Y > S)か、あるいは異なるセンシティブな群に対する等しい基底率を意味するセンシティブな属性 (Y > A) とは独立である。 0.70
Namely, if there is an imbalance in groups identified by A, then you cannot have both EO and DP holding. すなわち、A によって特定された群に不均衡が存在する場合、EO と DP の両方を保持することはできない。 0.75
2. Analogously: if Y (cid:54)⊥⊥ A, then sufficiency and independence cannot hold simultaneously. 2. アナロジー: Y (cid:54) = A ならば、十分かつ独立性は同時に維持できない。 0.79
Thus, if there is an imbalance in groups identified by A, then you cannot impose both sufficiency and independence. したがって、Aによって特定されたグループに不均衡がある場合、充足と独立の両方を課すことはできない。 0.72
3. Finally: if Y (cid:54)⊥⊥ A and the distribution (A, S, Y ) is strictly positive, then separation and sufficiency are incompatible. 3. 最後に Y (cid:54) = A と分布 (A, S, Y ) が厳密に正であれば、分離と十分性は相容れない。 0.77
Meaning that separation and sufficiency can both hold either when there is an imbalance in sensitive groups, or when, given a certain value of A and given the score S, the probability of having Y = 0 or Y = 1 (for binary targets) are both non-null, i.e. 分離と十分性は、センシティブな群に不均衡があるとき、あるいは、ある値 A とスコア S が与えられたとき、Y = 0 または Y = 1 を持つ確率(二元的目標に対して)はどちらも非零である。
訳抜け防止モード: 分離と充足はどちらも、センシティブなグループに不均衡がある場合にも維持できるということです。 あるいは、ある値 A が与えられてスコア S が与えられたとき Y = 0 または Y = 1 の確率(二進的目標に対して) どちらも null ではない。
when the score never exactly resolves the true target. スコアが真の目標を 正確に解決しないとき 0.71
Kleinberg et al (2016) prove that Balance of Positive Class, Balance of Negative Class and Calibration within Groups can hold together only if either there is no imbalance in groups identified by A or if each individual is given a perfect prediction (i.e. Kleinberg et al (2016) は、グループ内の正のクラス、負のクラス、および校正のバランスが、A によって特定された群に不均衡がないか、または各個人が完全予測(すなわち、完全予測)を与えられるかのどちらかでのみ成り立つことを証明している。
訳抜け防止モード: Kleinberg et al (2016 ) は正のクラスのバランスを証明する。 負のクラスと群内の校正のバランスは、もしも一緒にいられる。 Aによって特定される群に不均衡がないか あるいは各個人に完全な予測(すなわち
S = 0, 1 everywhere). S = 0, 1)。 0.67
Chouldechova (2017) focuses on the COMPAS recidivism case, now popular in the fairness literature. chouldechova (2017)は、現在フェアネス文学で人気があるcompas recidivismのケースに焦点を当てている。 0.53
Indeed, the debate on this case is a perfect example to highlight the fact that there are different and non-compatible notions of fairness, and that this may have concrete consequences on people. 実際、このケースに関する議論は、フェアネスの異なる、非互換の考えがあり、これが人々に具体的な影響をもたらすという事実を強調する完璧な例である。 0.62
While we refer to Washington (2018) and Chouldechova (2017) for a thorough discussion of the COMPAS case, we here just point out that in the debate there were two parties, one stating that the model predicting recidivism was fair since it satisfied Predictive Parity by ethnicity, while the other claiming it was unfair since it had different false positive and false negative rates for black and white individuals. 我々はワシントン(2018年)とチョルデコヴァ(2017年)を、コンパス事件に関する詳細な議論に言及しているが、議論の中で、recidivismを予測するモデルは民族による予測的な平等を満たしているため公平であると述べ、一方は黒人と白人の否定率が異なるため不公平であると主張する2つの当事者が存在することを指摘した。 0.71
Chouldechova (2017) showed that, if Y (cid:54)⊥⊥ A, i.e. Chouldechova (2017) は、Y (cid:54) = A, i。 0.70
if the true recidivism rate is different for black and white people, then Predictive Parity and Equality of Odds cannot both hold, thus implying that a reflection on which of the two (in general of the many) notions is more important to be pursued in that specific case must be carefully considered. 黒人と白人では真の再分配率が異なる場合、予測的パリティとオッドの平等はどちらも保持できないため、特定の場合において追求すべき2つの概念(一般には)の反映がより重要であることを暗示する。 0.69
Summarizing, apart from trivial or peculiar scenarios, the three families of group criteria are not mutually compatible. 要約は、自明なシナリオや特異なシナリオを除いて、グループの基準の3つのファミリーは相互に互換性がない。 0.58
3.6. Group vs individual 3.6. グループ対個人 0.68
The most common issue with group fairness definitions is the following: since group fairness requires to satisfy conditions only on average among groups, it leaves room to bias discrimination inside the groups. グループフェアネスの定義における最も一般的な問題は以下の通りである: グループフェアネスは、グループ間の平均的な条件のみを満たす必要があるため、グループ内の偏見差別の余地は残されている。 0.66
As we argued in the example of section 3 referring to figure 2, one way of reaching DP is to use a different rating threshold for men and women: this means that there will be a certain range of ratings for which men will receive the loan, and women won’t. 第3節では、第2節を例に挙げたように、DPに達する一つの方法は、男性と女性の格付け基準が異なることである:つまり、男性はローンを受け取り、女性は受け取らない、一定の範囲の格付けがあるということだ。 0.65
More formally, conditionally on rating there is no independence among A and ˆY . より正式には、格付けの条件は、AとYの間に独立性はない。 0.59
In general, to reach group fairness one may “fine tune” the interdependence of A and X to reach parity on average, but effectively producing differences in subgroups of A. 一般に、群フェアネスに達するためには、平均でパリティに達するために、A と X の相互依存を「微調整」するが、A の部分群の違いを効果的に生じる。
訳抜け防止モード: 一般に,集団フェアネスに達する A と X の相互依存を「微調整」することができる 平均してパリティに達するには A の部分群の違いを効果的に生み出す。
Notice that this is precisely what individual fairness is about. これは正確には個人の公平性に関するものです。 0.63
In the example above, a men and a woman that have the same rating may be treated differently, thus violating the individual notion of fairness. 上記の例では、同一の格付けを持つ男女が別々に扱われることがあるため、個々人の公平性の概念に反する。 0.72
As already discussed in section 3, of course this is only one possibility: one may as well reach DP by not using neither gender nor rating, and grant loan on the basis of other information, provided it is independent of A. 第3節で既に議論されているように、これは1つの可能性に過ぎず、Aから独立している場合、性別や格付けを使わずにDPに到達し、他の情報に基づいてローンを付与する方がよい。 0.65
In this case, there will be no group discrimination, but there won’t be any subgroup discrimination as well. この場合、グループ差別は存在しませんが、サブグループ差別は存在しません。 0.54
However, we can say that, if we want to reach DP by using as much information of Y as possible contained in しかし、もし私たちがDPに到達したいなら、できるだけYの情報を利用すればよい。 0.59
(X, A), i.e. minimizing the risk EL(f (X, A), Y ), then it is unavoidable to have some form of disparate treatment among people in different groups with respect to A whenever X (cid:54)⊥⊥ A. (X,A)。 リスク EL(f (X, A, Y) を最小化すると、X (cid:54) = A のとき、A に対して異なるグループに属する人々の間で何らかの異種な処置を行うことは避けられない。 0.67
This has been thoroughly discussed by Dwork et al (2012), where they call fair affirmative action the process of requiring DP while trying to keep as low as possible the amount of disparate treatment between people having similar X. このことはDwork et al (2012) によって徹底的に議論され、彼らは公平な肯定的な行動はDPを必要とするプロセスであり、同じXを持つ人との異なる治療の量を可能な限り低く保とうとしている。 0.60
To clarify the general picture, we can put the different notions of (observational) fairness in a plane with two qualitative dimensions (see figure 4): 1. to what extent a model is fair at the individual level, 2. how much information of A is retained in making decisions. 全体像を明らかにするために、2つの定性的次元を持つ平面において(観測的)公正性の異なる概念(図4参照)を配置することができる。
訳抜け防止モード: 全体像を明確にする。 2つの定性的次元を持つ平面に(観察的)公正性の異なる概念を置くことができる(図 4 ) : 1 . モデルは個々のレベルで公平です 2 意思決定において A の情報がどの程度保持されているか。
The first dimension represents to what extent two individuals with similar overall features X are given similar decisions: the maximum value is reached by models blind on A (FTU). 最初の次元は、同じ全体的特徴を持つ2つの個人がどの程度同じ決定を下すかを示している: 最大値は、a(ftu)上で盲目となるモデルによって達成される。
訳抜け防止モード: 第1次元は、類似した全体特徴を持つ2人の個人が類似した決定を下す程度を表す。 The maximum value is reached by model blind on A (FTU )。
These are the models that are also using all information in X, irrespective of the interdependence with A, thus FTU-compliant models will use all information contained これらは、A との相互依存に関係なく、X の全ての情報を使用するモデルであり、したがって FTU に準拠したモデルは、含む全ての情報を使用する。 0.66
in (cid:101)X apart from the information that is contained in A Aに含まれる情報とは別に(cid:101)Xで 0.83
only. The minimum value in this dimension is reached by models that satisfy DP. それだけ この次元の最小値は dp を満たすモデルによって達成される。 0.70
Models using suppression methods, being blind to both A and other features with high correlation with A, are individually fair in the sense of preventing disparate treatment. 抑制法を用いるモデルは、aや他のaと高い相関を持つ特徴に盲目であり、異なる治療の予防という意味で個別に公平である。 0.73
In so doing, they can exploit more or less information of A with respect to general DP-compliant models depending on how many correlated variables are discarded. そうすることで、多くの相関変数が捨てられるかによって、一般のDP準拠モデルに対して、Aの情報を多かれ少なかれ活用することができる。 0.63
However, the price to pay for discarding variables is in terms of errors in approximating Y , which is not highlighted in this plot. しかし、変数を破棄する費用は、このプロットで強調されていないYを近似する際の誤差の点にある。 0.66
Notice that, of course, full suppression – i.e. もちろん、完全に抑制されていることに注意しよう。 0.62
removing all variables dependent on A – trivially satisfies the condition ˆY ⊥⊥ A, it is DP-compliant as well. A に依存しているすべての変数を取り除く – 自明に A の条件を満たすが、DP にも準拠する。 0.72
In other terms, one can i.e. 言い換えれば、一つは、つまり、 0.47
have a DP-compliant model that is individual as well. dpに準拠したモデルも用意してください。 0.65
In figure 4, we label with DP a general model that tries to maximize performance while satisfying a DP constraint, without any further consideration. 図4では、DP制約を満たすことなく性能を最大化しようとする一般モデルにDPをラベル付けする。
訳抜け防止モード: 図4では、DPを一般的なモデルにラベル付けします。 DP制約を満たしながら、さらなる考慮なしにパフォーマンスを最大化しようとする。
Models satisfying CDP are somewhat in-between, of course depending on the specific variables considered for conditioning. CDPを満たすモデルは、もちろん条件付けのために考慮された特定の変数に依存する。 0.75
They guarantee less disparate treatment than unconditional DP, and they use more information of A by controlling for other variables possibly dependent on A. 非条件dpよりも少ない処理を保証し、aに依存する可能性のある他の変数を制御することでaの情報を多く使用する。 0.60
Notice that approaches such as fair representation (see section 2), where you try to remove all information of A from X to get new variables Z which are as close as possible to being independent of A, produce decision systems ˆY = f (Z) that are not, in general, individually fair. 公正表現のようなアプローチ(セクション2参照)では、A のすべての情報を X から取り除いて、A から独立にできる限り近い新しい変数 Z を取得しようとすると、一般に個々に公平でない決定系 >Y = f (Z) を生成する。 0.71
This is due to the simple fact that, precisely to remove the interdependence of A and X while keeping as much information of X as possible, two individuals with same X and different A will be mapped in two distinct points on Z, thus having, in general, different outcomes. これは、X の情報をできるだけ多く保持しながら、A と X の相互依存性を正確に取り除くために、同じ X と異なる A を持つ2つの個人は Z 上の2つの異なる点に写像されるため、一般に異なる結果が得られる。 0.84
Referring again to the credit lending example, suppose that we have R = g(A) + U , with g a complicated function encoding the interdependence of rating and gender, and U some other R = g(A) + U であり、g は格付けと性別の相互依存性をコードする複雑な関数であり、U は他のいくつかの機能を持つと仮定する。 0.73
11 11 0.85
Figure 4: Landscape of observational fairness criteria with respect to the group-vs-individual dimension and the amount of information of A used (via X). 図4: 観測的公平性基準のランドスケープ グループ-vs-個人次元および使用される情報量に関する(xによる)。 0.78
Figure 5: Landscape of observational fairness criteria with respect to the model performance dimension and the amount of information of A used (via X). 図5:(Xを介して)使用したAのモデル性能次元と情報量に関する観察的公正度基準のランドスケープ。 0.74
factor independent of A representing other information in R “orthogonal” to A. R から A への「直交」の他の情報を表す A から独立な因子 0.77
In this setting, the variable Z that we are looking for is precisely U . この設定では、私たちが探している変数 Z はまさに U である。 0.80
Notice that U is indeed independent of A, thus any decision system ˆY = f (U ) satisfies DP, but given two individuals with R = r nothing prevents them from having different U . U が真の A から独立であることに注意し、任意の決定系 >Y = f (U ) が DP を満たすが、R = r の 2 つの個人が与えられたことにより、彼らは U が異なることを妨げない。 0.65
In other terms, you need to have some amount of disparate treatment to guarantee DP and employ as much information as possible to estimate Y . 言い換えれば、dpを保証し、yを見積もるためにできるだけ多くの情報を使用するには、ある程度の異なる治療が必要です。
訳抜け防止モード: 言い換えれば、ある程度の異なる治療が必要である。 DPを保証し、できるだけ多くの情報を用いてYを推定する。
Figure 5 shows a qualitative representation of observational metrics with respect to the amount of information of A (through X) that is used by the model, and the predictive performance. 図5は、モデルによって使用される(xを通して)情報量と予測性能に関して、観測指標の定性的表現を示しています。 0.81
Notice that DP can be reached in many ways: e g a constant score model, namely a model accepting with the same chance all the individuals irrespective of any feature, is DP-compliant (incidentally, it is also individual), a model in which all the variables dependent on A have been removed (a full suppression), or a model where DP is reached while trying to maximize performance (e g through fair representations). 例えば、一定のスコアモデル、すなわち任意の特徴によらず全ての個人が同じ確率で受け入れるモデルは、DP準拠である(偶然にそれは個人である)、Aに依存する変数が全て削除された(完全な抑圧)、DPがパフォーマンスを最大化しようとする(例えば、公正表現を通して)モデルである。
訳抜け防止モード: DPが様々な方法で到達できることに注意。 例えば、一定のスコアモデル、すなわち、あらゆる特徴に関係なく全ての個人が同じ確率で受け入れるモデル。 DP (複数形 DPs) 個人的でもあるのです ) モデル Aに依存しているすべての変数が削除された(完全な抑圧)。 あるいはモデルが DPが到達 パフォーマンスを最大化しようと試みています(例えば、公正な表現を通して)。
All these ways differ in terms of the overall performance of the DPcompliant model. これらすべてがDP準拠モデルの全体的なパフォーマンスという点で異なる。 0.75
FTU-compliant models, on the other hand, by employing all information in X will be, in general, more efficient in terms of model performance.9 一方、FTUに準拠したモデルでは、Xの全ての情報を利用することで、一般にモデル性能の面でより効率的になる。 0.72
Incidentally, notice that this discussion is to be taken at a qualitative level, one can come up with scenarios in which, e g , models satisfying DP have higher performances than models FTU-compliant (think, e g , of a situation in which Y ⊥⊥ A and X (cid:54)⊥⊥ A). ちなみに、この議論は定性的なレベルでなされるべきであり、例えば、dpを満たすモデルがモデルftuに準拠したモデルよりも高いパフォーマンスを持つようなシナリオを思いつくことができる(例えば、y = a と x (cid:54) = a)。
訳抜け防止モード: ちなみに、 この議論は質的なレベルで行われます シナリオを思いつくことができます 例えば DPを満たすモデルは、FTU 準拠モデルよりも高いパフォーマンスを持つ(考える) E, g, Y が A と X ( cid:54) が A である状況について。
3.7. Multiple sensitive features 3.7. マルチセンシティブな特徴 0.71
Even if a detailed discussion of the problem of multiple sensitive features is out of the scope of this manuscript, we shall nevertheless give a brief overview. 複数の繊細な特徴の問題に関する詳細な議論がこの写本の範囲外であるとしても、それでも、簡潔な概要を述べる。 0.68
9Of course it is understood that the model f in ˆY = f (X) is 9Of もちろん、 >Y = f (X) のモデル f が成立する。 0.77
trained to maximize performance. パフォーマンスを最大化するために訓練されました 0.43
12 Generally speaking, all the definitions and results we gave in previous sections are subject to the fact that the sensitive feature A is represented by a single categorical variable. 12 一般に、前節で述べたすべての定義と結果は、感度のある特徴 A が単一のカテゴリー変数で表されるという事実に従わなければならない。 0.82
If, for a given problem, we identify more than one characteristic that we need to take into account as sensitive or protected – say (A1, . 与えられた問題に対して、機密性や保護を考慮に入れなければならない特徴がひとつ以上ある場合 — 例えば(A1, .)。 0.74
. . , Al) – we can easily assess fairness on each of them separately. . . , al) – それぞれのフェアネスを個別に評価することができる。 0.80
This approach, that Yang et al (2020) call independent group fairness, unfortunately is in general not enough: even if fairness is achieved (in whatever sense) separately on each sensitive variable Ai, it may happen that some subgroups given by the intersection of two or more Ai’s undergo unfair discrimination with respect to the general population. yangら(2020年)が独立グループフェアネスと呼ぶこのアプローチは、残念ながら、一般的には不十分である: たとえフェアネスが各敏感な変数aiに対して(どんな意味でも)別々に達成されたとしても、2つ以上のaiの交点によって与えられたいくつかのサブグループは、一般の人々に対して不公平な差別を受ける可能性がある。
訳抜け防止モード: このアプローチ Yang et al (2020)は独立グループフェアネスと呼んでいる。 残念なことに 一般的には不十分です 公平性は、各感度変数Aiに対して別々に(どんな意味でも)達成される。 Ai の2つ以上の交差によって与えられる部分群が、一般大衆に対して不公平な差別を受けている場合もあります。
This is sometimes referred to as intersectional bias, or, more specifically, fairness gerrymandering (Kearns et al , 2018). これはしばしば交叉バイアス、またはより具体的にはフェアネス・ゲリーマンデリング(kearns et al , 2018)と呼ばれる。
訳抜け防止モード: これはしばしば交叉バイアス(intersectional bias)、またはより具体的には、 fairness gerrymandering (kearns et al , 2018)の略。
To prevent bias from occurring in all the possible subgroups identified by all Ai’s one can simply identify a new feature A = (A1, . すべてのAiによって特定されるすべての可能な部分群にバイアスが発生するのを防ぐために、新しい特徴 A = (A1, ) を単純に特定できる。 0.67
. . , Al), whose values are the collection of values on all the sensitive attributes, and require fairness constraints on A. Yang et al (2020) call this intersectional group fairness. . . a. yang et al (2020) において、値がすべての繊細な属性の値の集合であり、フェアネス制約を必要とする。 0.76
This last “trick” indeed solves the problem of intersectional bias, at least theoretically. この“トリック”は、少なくとも理論的には、交叉バイアスの問題を解決する。 0.67
Still, issues remain at a computational and practical level, whose two main reasons are: それでも、問題は計算と実用のレベルに留まり、その主な理由は次の2つである。 0.61
• the exponential increase of the number of subgroups • 部分群の数の指数的増加 0.74
when adding sensitive features, 繊細な特徴を加えると 0.70
• the fact that, with finite samples, many of the subgroups will be empty or with very few observations. • 有限サンプルの場合、多くの部分群は空であるか、あるいはほとんど観測されないという事実。 0.84
These two aspects imply that even assessing (group) fairness with respect to multiple sensitive attributes may be practically unfeasible in many cases. これらの2つの側面は、複数の感度属性に対する(群)公正性を評価することでさえ、多くの場合事実上不可能であることを示している。
訳抜け防止モード: これら2つの側面は 複数の機密属性に対する公平さを評価することさえ、多くの場合、事実上不可能である。
This is a huge problem, that most of the literature on fairness in ML does not address. これは大きな問題であり、MLの公平性に関する文献のほとんどは、対処しない。 0.69
We refer to Yang et al (2020); Kearns et al (2018); Buolamwini and Gebru (2018) for a more detailed discussion. 我々は、より詳細な議論のために、 Yang et al (2020), Kearns et al (2018), Buolamwini and Gebru (2018)を参照する。 0.87
DPgroupindividualinf ormationofAusedFTUCD PsuppressionˆY⊥⊥ADPmodelperformancei nformationofAusedFTU CDPsuppressionconsta ntscoreˆY⊥⊥A DPgroupindividual informationofAusedFT UCDPpress! 0.18
4. Causality-based criteria Another important distinction of fairness criteria is the one between observational and causality-based criteria. 4. 因果基準 フェアネス基準のもう1つの重要な区別は、観察基準と因果基準の区別である。 0.61
As we have seen, observational criteria rely only on observed realizations of the distribution of data and predictions. これまで見たように、観測基準は観測されたデータの分布と予測の実現にのみ依存する。 0.76
In fact, they focus on enforcing equal metrics (acceptance rate, error rate, etc. 実際、彼らは平等なメトリクス(受け入れ率、エラー率など)を強制することに集中しています。 0.56
. . ) for different groups of people. . . ) 異なる集団の人々のためです 0.83
In this respect, they don’t make further assumptions on the mechanism generating the data and suggest to assess fairness through statistical computation on observed data. この点で、彼らはデータを生成するメカニズムについてさらなる仮定をしていないし、観測されたデータに対する統計的計算を通じて公正さを評価することを推奨している。 0.58
Causality-based criteria, on the other hand, try to employ domain and expert knowledge in order to come up with a casual structure of the problem, through which it becomes possible to answer questions like “what would have been the decision if that individual had a different gender?”. 一方で因果関係に基づく基準では,問題に対するカジュアルな構造を見出すために,ドメインや専門家の知識を活用しようと試みている。
訳抜け防止モード: 因果性 - 一方、基準に基づく試行 専門知識や知識を)取り入れる 問題のカジュアルな構造を見出すために それによって、“もしその個人が別の性別を持っていたら、どんな決定をしたのか?”といった質問に答えることが可能になる。
While counterfactual questions like this seem in general closer to what one may intuitively think of as “fairness assessment”, the observational framework is on the one hand easier to assess and constrain on, and on the other more robust, since counterfactual criteria are subject to strong assumptions about the data and the underlying mechanism generating them, some of which are not even falsifiable. このような反事実的な質問は一般的に、直観的に「フェアネス・アセスメント(fairness assessment)」と考えるものに近いように思われるが、観察的枠組みは、一方的に評価や制約が容易であり、他方ではより堅牢である。
訳抜け防止モード: 反事実的な質問は、一般的に何に近いかのように見える 直感的に「公正評価」と考えることもある。 観察の枠組みは、一方的に評価し、制約することが容易です。 反事実的基準はデータについて強い仮定を下すため その基盤となるメカニズムは 実現不可能なものもあります
As we argued above (section 2), answering to counterfactual questions is very different from taking the feature vector of, e g , a male individual and just flip the gender label and see the consequences in the outcome. 上述したように(第2節)、反事実的質問に対する回答は、例えば、男性個人の特徴ベクトルを取り、単に性別ラベルをひっくり返して結果に結果を見出すのとは大きく異なる。 0.69
The difference lies precisely in the causal chain of “events” that this flip would trigger. 違いはまさに、このフリップが引き起こす“イベント”の因果連鎖にある。 0.53
If there are some features related, e g , to the length of the hair, or the height, then it is pretty obvious that the flip of gender should come together with a change in these two variables as well. 例えば、髪の長さや身長などに関連するいくつかの特徴があるとすれば、性別の反転は、これら2つの変数にも変化を伴わなければならないことは明らかである。 0.73
And this may be the case for other, less obvious but more important, variables. そしてこれは、他の、より明確ではなく、より重要な変数についても当てはまります。 0.61
This also suggests why counterfactual statements involve causality relationships among the variables. これはまた、反事実ステートメントが変数間の因果関係を含む理由も示唆している。 0.56
In general, to answer counterfactual questions, one needs to know the causal links underlying the problem. 一般に、反事実的疑問に答えるためには、問題の根底にある因果関係を知る必要がある。 0.58
This requires a certain number of assumptions, usually driven by domain knowledge. これは、通常ドメイン知識によって駆動される、一定の数の仮定を必要とする。 0.57
However, as major drawback, once given the casual structure there are many counterfactual models compatible with that structure (actually infinite), and the choice of one of them is not falsifiable in any way. しかし、大きな欠点として、一度カジュアルな構造が与えられると、その構造(実際には無限)に相反する多くの反実モデルが存在し、その1つを選択することはいかなる方法においても偽造不可能である。 0.60
Indeed, causalitybased criteria can be formulated at least in two different levels: at the level of interventions and at the level of counterfactuals. 実際、因果関係に基づく基準は、少なくとも2つの異なるレベル(介入のレベルと反事実のレベル)で定式化することができる。
訳抜け防止モード: 実際、因果関係に基づく基準は少なくとも2つの異なるレベルで定式化できる:介入のレベルで 反ファクトのレベルでは
Fairness at the level of interventions can be formally expressed as follows (Kilbertus et al , 2017): 介入のレベルにおける公正性は、次のように正式に表現できる(Kilbertus et al , 2017)。 0.64
P ( ˆY = 1 | do(A = a), X = x) = P ( ˆY = 1 | do(A = b), X = x), p(a = a), x = x) = p(a = 1 | do(a = b), x = x)
訳抜け防止モード: P ( y = 1 | do(A = a ) X = x ) = P ( y = 1 | do(A = b ) X = x )。
∀a, b ∈ A, x ∈ X . a, b ∈ A, x ∈ X である。 0.80
(19) 13 In words, if you take a random individual with X = x and force it to be, e g , female (do(A = a)), you want to give him the same chance of acceptance as for a random individual with X = x forced to be male (do(A = b)). (19) 13 言い換えると、x = x のランダムな個人を、例えば、女性 (do(a = a)) に強制すると、x = x のランダムな個人が男性に強制されるのと同じ確率を彼に与えたい(do(a = b))。 0.78
We refer to it as Intervention Fairness. これをインターベンションフェアネス(Intervention Fairness)と呼ぶ。 0.42
The same requirement can be set at the counterfaclevel, and is known as Counterfactual Fairness tual (CFF) (Kusner et al , 2017): 同じ要件が反ファックレベルに設定でき、CFF(Counterfactual Fairness tual)として知られている(Kusner et al , 2017)。 0.73
P ( ˆYA←a = 1 | A = a, X = x) = P = 1 | A = a, X = x) = P 0.67
P ( ˆYA←b = 1 | A = a, X = x), p は 1 | a = a, x = x) である。 0.66
∀a, b ∈ A, (20) a, b ∈ A, (20) 0.76
which, in words, reads: if you take a random individual with A = a and X = x and the same individual if she had A = b, you want to give them the same chance of being accepted. もし、a = a と x = x のランダムな個人を、a = b のときと同じ個人とすると、同じ機会を彼らに与えたいのです。 0.56
The difference between the two levels is subtle but important: roughly speaking, when talking about interventions one is considering the average value over exogenous factors U , while counterfactuals consider only the values of U that are compatible with the factual observation (namely, the distribution P(U | A = a, X = x)). 概して、介入について話すとき、外因性因子 U よりも平均値を考えるのに対し、反事実は事実観察と互換性のある U の値のみを考える(つまり、分布 P(U | A = a, X = x))。
訳抜け防止モード: 2つのレベルの違いは微妙だが重要だ おおざっぱに言えば 介入について語るとき 1つは、外因性因子Uに対する平均値を考える一方で、反事実は、事実観察と互換性のあるUの値のみを考える(つまり、)。 分布 P(U | A = a, X = x ) 。
In other words, counterfactuals consider only events that take into account actual observed value of A (and X as well) (see Supplementary Material of Kusner et al (2017)). 言い換えれば、反事実はAの実際の観測値(およびXも同様)を考慮に入れた事象のみを考慮に入れている(Kusner et al (2017) の補助材料を参照)。 0.64
Equations (19), (20) make use of Pearl’s do-calculus, where do(A = a), called intervention, consists in modifying the causal structure of the problem by exogenously setting A = a, thus removing any causal paths impacting on A – the theoretical equivalent of randomized experiments. 方程式 (19), (20) では、do(a = a) は介入と呼ばれ、a = a を外因的に設定することで問題の因果構造を変更し、a に影響を及ぼす因果経路(理論上はランダム化実験と同値)を取り除く。 0.67
The notation ˆYA←b, on the other hand, stands for the three steps of counterfactual calculus, abduction, action, prediction: 一方、記法は反事実計算、アブダクション、行動、予測の3つのステップの略である。 0.45
• abduction is where you account for observed values and compute the distribution of U | (A = a, X = x); • action corresponds to implementing the intervention • アブダクションは、観測された値を考慮し、u | (a = a, x = x); • アクションが介入を実装することに対応するものである。
訳抜け防止モード: • abduction は、観測された値を説明し、U | (A = a,) の分布を計算する場所である。 X = x ) ; • アクションは介入の実装に対応する
do(A = b); • prediction consists in using the new causal structure and the exogenous conditional distribution P(U | A = a, X = x) to compute the posterior of ˆY . do(A = b) • 予測は、新しい因果構造と外因性条件分布 P(U | A = a, X = x) を用いて、'Y' の後部を計算する。 0.70
We refer to Pearl and Mackenzie (2018) for a general review on causal inference and do-calculus, and again to Barocas et al (2019) for a thorough discussion of causality in the context of fairness. 因果推論とdo-calculusに関する一般的なレビューについてはpearl and mackenzie (2018)、フェアネスの文脈における因果性に関する徹底的な議論についてはbarocas et al (2019)を参照。 0.71
As in the observational setting, causality-based criteria have a group and an individual version: equations (19), (20) correspond to the individual form, but nothing prevents to take the version unconditional on X, i.e. 因果関係に基づく基準は群と個別のバージョンを持つ:方程式 (19)、 (20) は個々の形式に対応するが、X 上では無条件である。
訳抜け防止モード: 観察的設定と同様に、因果関係-基準はグループと個々のバージョンを持つ : 方程式 (19) (20)は個々の形式に対応するが x の無条件バージョンを取ることを妨げるものは何もありません。
holding on average on all the individuals, or even to condition on only some subset of X, as in CDP. CDPのように、すべての個人、またはXのいくつかのサブセットだけを条件に平均で保持すること。 0.75
4.1. Group vs. 4.1. グループ vs. 0.76
individual fairness in causality-based set- 因果関係に基づく集合の個性公平性- 0.46
ting We call Expectation Intervention Fairness the condition: ティン 期待介入の公平さを条件と呼びます 0.61
P ( ˆY = 1 | do(A = a)) = P(A = a)) = 1 | do(A = a)) 0.86
P ( ˆY = 1 | do(A = b)) ∀a, b ∈ A, P ( s Y = 1 | do(A = b)) sa, b ∈ A, 0.85
(21) i.e. requiring that, on average, an individual taken at random from the whole population and forced to be woman (do(A = a)) should have the same chance of being accepted as a random individual forced to be man. (21) i.e. 平均して、人口からランダムに取られて女性(do(a = a))に強制される個人は、男性であることを余儀なくされたランダムな個人として受け入れられる機会と同じである必要がある。 0.79
Analogously, we can define Expectation Counterfactual Fairness (ECFF) as: アナロジカルに、期待反事実公正(ECFF)を次のように定義できる。 0.55
P ( ˆYA←a = 1 | A = a) = P = 1 | A = a) = P である。 0.78
P ( ˆYA←b = 1 | A = a) ∀a, b ∈ A, P = 1 | A = a (a, b ∈ A) である。 0.74
(22) which states that, on average, the acceptance rate for a random woman (A = a) should be the same as the one given to a random woman forced to be a man. (22) 平均すると、ランダムな女性(a = a)の受け入れ率は、ランダムな女性に男性であることが強制された場合と同じである。 0.74
Similar definitions can be given conditioning on partial information R. 同様の定義は部分情報Rで条件付けすることができる。 0.74
Summarizing, we can visualize CFF as the following process: the conditioning on some (A = a, R = r) represents the group of people that we take into account (a single individual for R = X), and any consideration we do on them must hold on average over that group; given that group, we force a flipping of the sensitive attribute from A = a to A = b (and here we are going in a new, nonobservable, distribution), and this will trigger a cascade of causal consequences on the other features X (namely, on the descendants of A in the causal graph). Summarizing, we can visualize CFF as the following process: the conditioning on some (A = a, R = r) represents the group of people that we take into account (a single individual for R = X), and any consideration we do on them must hold on average over that group; given that group, we force a flipping of the sensitive attribute from A = a to A = b (and here we are going in a new, nonobservable, distribution), and this will trigger a cascade of causal consequences on the other features X (namely, on the descendants of A in the causal graph). 0.84
Then, we compare the model outcomes averaged on the observed group and on the counterfactual group. 次に,観測群と対実群で平均されたモデル結果を比較した。 0.83
Intervention Fairness is slightly different: you take again all the individuals compatible with the conditioning – which this time is R = r without fixing the sensitive A – then force them first to have A = a, and then to have A = b (with all the causal consequences of these interventions), and require them to have, on average, the same acceptance rate. 介入の公平さは少し異なります – 条件付けと互換性のあるすべての個人 – この場合はr = r で、敏感な a を固定することなく – を最初に a = a にし、次に a = b に強制し(これらの介入のすべての因果的結果とともに)、平均的に同じ受け入れ率でなければならないのです。 0.72
This may resonate with the notion of FTU: when flipping A for an observation you want the outcome of the model not to change. これは、FTUの概念に反するかもしれない: 観察のためにAをひっくり返すとき、モデルの結果が変更されないようにしたい。 0.71
Indeed Fairness Through Unawareness is a causality-based notion of fairness, at least in its formulation of not explicitly using A. 実際、不注意を通しての公正は因果性に基づく公正の概念であり、少なくとも A を明示的に用いないという定式化においてである。 0.45
The very concept of flipping A is nothing but an intervention. Aをひっくり返すという概念は、単なる介入に過ぎない。 0.50
Notice, incidentally, that the flipping of A without any impact on other variables corresponds to assuming a causal graph where A has no descendant, or, better, corresponds to assuming that all the changes caused by the flipping of A on other variables are legitimate, i.e. ちなみに、他の変数に影響を与えない A の反転は、A が子孫を持たないような因果グラフを仮定すること、あるいはより良くすると、A の他の変数への反転によって生じるすべての変化が正則であると仮定することに対応している。 0.72
considered fair. Moreover, the fact that FTU is difficult to be measured without having access to the model, is due to its nature of being a non-observational 公平だ さらに、FTUがモデルにアクセスせずに測定することが困難であるという事実は、観測不能であることによるものである。 0.58
notion, but it requires fictitious data to be assessed – a dataset with A flipped, i.e. 概念は、しかし、評価するには架空のデータが必要です。 0.43
a dataset not sampled from the real distribution of (A, X, ˆY ). 実分布からサンプリングされていないデータセット (a, x, sy )。 0.77
This is similar to the way in which CFF can be assessed: compare the predictions over a dataset with the ones on the same datasets but with A flipped and with all the changes caused by this flipping (of course, knowledge of the underlying SCM is needed). これは、cffを評価できる方法に似ている:データセット上の予測を、同じデータセット上の予測と比較するが、フリップされ、このフリップによって引き起こされるすべての変更(もちろん、基礎となるscmの知識が必要である)と比較する。 0.72
This, in turn, reveals the subtle difference among CDP in the form ˆY ⊥⊥ A | X and FTU: CDP is an observational notion, i.e. CDP は観測的概念であり、つまり CDP は観測的概念である。 0.31
can be measured, in principle, by having access to (realizations from) the distribution of ( ˆY , A, X), while FTU does not. 原理的には、FTUはそうでないのに対して、( , A, X) の分布にアクセス(実現)することで測定できる。 0.70
We say “in principle” since it’s very likely that in real-world datasets there will be very few observations corresponding to X = x (typically one), thus resulting in a poor estimation of the distribution of ˆY | X. Causality-based notions are richer than the observational ones, and permit a further possibility: to select which causal paths from A to ˆY are considered legitimate and which, instead, we want to forbid. 実世界のデータセットでは、x = x(典型的には1つ)に対応する観測が極めて少ないため、因果関係に基づく概念は観測値よりも豊かであり、さらに可能性として、aからyまでの因果経路を選択し、その代わりに禁止したいと考える。
訳抜け防止モード: というのも、実世界のデータセットでは、X = x(通常は1つ)に対応する観測はほとんどないからです。 因果関係 (Causality) - 基本概念は観測概念よりも豊かである。 さらなる可能性を認める : A から Y への因果経路が正当であると考えられるものを選択する その代わりに、私たちは禁止したいのです。
In the job listing example, we may consider that the type of degree of the applicants is fundamental for the job position, and thus crucial to making decisions. 求職者一覧の例では、求職者の種類は求職者の地位に基本的であり、したがって意思決定に不可欠であると考えることができる。 0.54
But it could well be that the type of degree is correlated, and even “caused” by the gender of the applicants: women and men may have different attitudes towards choosing the preferred degree. しかし、学位の種類が相関しているのかもしれないし、応募者の性別によっても「原因」があるかもしれない。
訳抜け防止モード: しかし、次数のタイプが相関しているのかもしれない。 そして、応募者の性別による「原因」さえも。 男女は 好みの学位を選ぶ態度が違うかもしれない
In this situation, if we require CFF, we would compare a man with some degree to his “parallel self” in the counterfactual world where he is a woman. この状況では、もし私たちがCFFを必要とするなら、ある程度の男性を、彼が女性である反事実の世界における「並列自己」と比較します。 0.74
In that world, however, it’s very likely that her degree is going to be different. しかし、その世界では、彼女の学位が変わる可能性は極めて高い。 0.60
Thus, requiring CFF means to somehow prevent the decision maker to employ the degree type for the assessment. したがって、CFFの要求は、意思決定者が評価に度数型を採用するのを何とか防止することを意味する。 0.57
Taking into account situations like this one is not very difficult. このような状況を考慮に入れることはそれほど難しくない。 0.79
Supplementary Material of Kusner et al (2017) and Chiappa (2019) introduce the following definition, known as path-specific Counterfactual Fairness (pCFF): kusner et al (2017) と chiappa (2019) の補足資料では、以下の定義が紹介されている。
訳抜け防止モード: Kusner et al (2017 ) と Chiappa (2019 ) の補助材料は以下の定義を導入している。 path - specific Counterfactual Fairness (pCFF) として知られる。
P ( ˆYA←a,XF ←x1 = 1 | A = a, XF = x1, X c P ( ˆYA←b,XF ←x1 = 1 | A = a, XF = x1, X c P = a, XF = x1, X c P ( ,YA,b,XF ,x1 = 1 | A = a, XF = x1, Xc である。
訳抜け防止モード: P ( s s s , XF s x1 = 1 | A = a, XF = x1, Xc P ( シュヤシb, XF >x1 = 1 | A = a, XF = x1, Xc
F = x2) = F = x2), ∀a, b ∈ A,∀x1, x2, F = x2) = F = x2), .a, b ∈ A, .x1, x2, 0.90
(23) where XF correspond to the variables descendants of A that we consider fair mediators to make decisions (e g the degree type), and X c F is its complement with respect to X, namely X = (XF , X c F ). (23) XF は A の変数の子孫に対応し、公正な仲介者が決定を下す(例えば次数型)と考え、X c F は X に関する補集合、すなわち X = (XF , X c F )。 0.78
In words, take a man (A = a) with a specific degree x1 and other features x2, and force him to be a woman, letting all the causal consequences of this flipping to happen with the exception of the degree, kept fixed at x1, then compare their outcomes. 言い換えると、ある男性(A = a)を特定の次数 x1 と他の特徴 x2 を持ち、女性であるように強制し、この転倒の因果関係のすべての結果が次数を除いて起こるようにし、x1 で固定され、その結果を比較する。 0.80
Incidentally, notice that if we allow XF to contain all the descendants of A, then we end up with a notion that we may call direct Counterfactual Fairness (dCFF), namely the only path that we are concerned of is the direct causal path from gender A to the decision ˆY . ちなみに、もし xf が a のすべての子孫を含ませるならば、我々は直接反事実公平 (direct counterfactual fairness, dcff) と呼ぶことができるという考えにたどり着く。
訳抜け防止モード: ちなみに もし xf は a の子孫を全て含み すると、直接反事実公平 (direct counterfactual fairness, dcff) と呼ぶことができるという考えにたどり着く。 つまり、私たちが関心を持つ唯一の経路は、性別aから決定yへの直接的な因果経路である。
In this case we don’t allow any causal consequences of the gender flipping to happen when assessing fairness. この場合、フェアネスを評価するとき、性別の反転による因果的な結果は許されません。 0.66
This is, again, strictly これは、厳密に言えば、 0.51
14 14 0.85
individual fairness in the observational and in the counterfactual setting. 観察的かつ反事実的設定における個々人の公平さ。 0.59
Namely, in the observational setting we expressed disparate treatment as the event in which two individuals with same X but different A are given different outcomes. すなわち、観察条件では、同じXと異なるAの2つの個人が異なる結果を得るイベントとして、異なる治療を表現した。 0.81
In general, fair representation is not guaranteed to prevent such scenario. 一般に、公正表現はそのようなシナリオを防ぐために保証されない。 0.61
In the counterfactual context, instead, we consider disparate treatment when an individual and her “counterfactual self” with A flipped are given different outcomes. 反事実的文脈では、代わりに、反転した個人と彼女の「個人的自己」が異なる結果を与える場合に異なる扱いを考える。 0.64
CFF is designed precisely to prevent this. CFFはそれを防ぐために正確に設計されている。 0.55
Notice that this concept, translated in the observational setting, is analogous to requiring a similar treatment for two individuals similar in Z, not in X . この概念は観測条件で翻訳され、XではなくZに類似した2つの個人に対して同様の治療を必要とするのと同様である。 0.73
Indeed, if you take an individual with some (A = a, X = x) and flip her gender while taking into account the interdependence of X and A, she will be transformed in the same point Z. 実際、ある(A = a, X = x)個を持ち、X と A の相互依存を考慮して性別をひっくり返すと、彼女は同じ点 Z で変換される。 0.69
This is an example of the fact that the concept of individual fairness is strongly dependent on the concept of similarity that one decides to consider. これは、個々人の公正の概念が、考慮すべき類似性の概念に強く依存しているという事実の例である。 0.80
Summarizing, CFF and fair representation are very similar in the way in which they deal with disparities, namely they both try to remove all (causal) information of A from the feature space, and then use the “cleaned” space to make decisions. 要約、CFF、公正表現は、相違(disparities)を扱う方法において非常によく似ており、Aのすべての(因果的な)情報を特徴空間から取り除き、そして「クリーン」な空間を使って決定を下そうとする。 0.77
In this respect, CFF can be seen as both a “causal analogue” of a DP-compliant methods, in the sense that all the way in which A may impact the decision are forbidden, and an individually fair notion in the sense that it imposes condition on individual basis. この点において、CFF は、A が決定に影響を及ぼすあらゆる方法が禁止されるという意味で、DP 準拠の手法の「因果類推」(causal analogue) と見なすことができ、個別に条件を課すという意味では個々に公正な概念である。 0.74
Notice that, to find the UA variables, one needs to assume a Structural Causal Model (SCM), i.e. UA変数を見つけるには、構造因果モデル (Structure Causal Model, SCM) を仮定する必要がある。 0.74
besides the causal graph encoding the “direction” of causal relationships, one 因果関係の「方向」をコードする因果グラフの他に 0.56
needs a set of equations (cid:101)X = F (U ) that express the precise relations among the observed variables (cid:101)X and all the 観測変数 (cid:101)x と全ての変数の間の正確な関係を表す方程式 (cid:101)x = f (u ) の組が必要である。 0.73
unobserved (exogenous) ones U . unobserved (複数形 unobserveds) 0.50
One typical assumption is the so-called Additive Noise Model: 典型的な仮定は、いわゆる付加雑音モデルである。 0.65
(cid:101)Xα = fα(parents((cid:101)Xα)) + Uα, α = 1, . (cid:101)Xα = fα(parents((cid:101)Xα)) + Uα, α = 1。 0.87
. . d + 1, . . d + 1 である。 0.82
where (cid:101)Xα represents the α-th feature among the variables ここで (cid:101)xα は変数のα番目の特徴を表す 0.63
(X, A). To fully specify a SCM, the functions fα must be specified as well. (X, A)。 SCM を完全に指定するには、関数 fα も指定する必要がある。 0.80
The problem with assuming a specific SCM is that it is not falsifiable: given a causal graph, there is an infinite number of SCMs compatible with that graph and with the observations. 特定のSCMを仮定する際の問題は、因果グラフが与えられた場合、そのグラフと観測値と互換性のある無限個のSCMが存在することである。 0.73
5. Conclusions The notion of fairness in decision making has many nuances, that have been reflected in the high number of proposed mathematical and statistical definitions. 5. 結論 意思決定における公平性の概念には多くのニュアンスがあり、多くの数学的および統計的定義に反映されている。 0.72
Notice, moreover, that this aspect is not limited to ML or artificial intelligence: the problem of how to define and assess bias discrimination in decision making processes is present largely independently of “who” is making the decision. さらに、この側面はMLや人工知能に限ったものではなく、意思決定プロセスにおける偏見差別を定義し評価する方法の問題は、“誰が”決定を下しているのかとは独立して存在している。 0.62
The growing attention to this issue in the domain of automated data-driven decisions can be imputed to the 自動データ駆動決定の領域におけるこの問題に対する関心の高まりは、その原因となる可能性がある。 0.57
15 Figure 6: Landscape of causality-based fairness criteria. 15 図6:因果関係に基づく公平度基準の景観。 0.75
connected to FTU. Figure 6 is a schematic and qualitative visualization of many of the points discussed above: the dimension of group vs. individual is “controlled” by how much information we condition on, while the dimension of the causal impact of A on the decision is controlled by the fraction of paths causally connecting A to ˆY that are considered fair. FTUに接続。 図6は、上述した多くの点の図式的で定性的な視覚化である: グループ対個人の次元は、私たちがどれだけの情報を前提としているかによって「制御」され、一方、決定に対するAの因果的影響の次元は、AとYを因果的に結合する経路の分数によって制御される。 0.71
Figure 6 is meant to be the causal analogue of figure 4. 図6は、図4の因果的類似物である。 0.71
Of course there are many possible cases that, for simplicity, we have omitted from figure 6, namely all the Intervention notions, and the path-specific notions valid on average in broader groups.10 もちろん、単純性のために、図6、すなわちすべてのインターベンション概念、およびより広い群で平均で有効であるパス固有の概念を省略した多くのケースがある。 0.71
If we focus on CFF, it can be reached by training a model on the space (Σ, UA, Y ) where Σ are the non-descendants of A, i.e. CFF に焦点をあてるならば、Σ, UA, Y の空間上のモデル (Σ, UA, Y ) を訓練することで到達できる。 0.64
variables not caused by A, directly or indirectly; UA denotes the information inside descendants of A that is not attributable to A. a が直接的または間接的に引き起こさない変数;ua は a に帰属しない a の子孫の内部の情報を表す。
訳抜け防止モード: Aによって起こらない変数、直接または間接的に UA は A に帰属しない A の子孫の内部の情報を表す。
A decision system ˆY = f (Σ, U ) is counterfactually fair (20) by design. 決定系 f (Σ, U ) は、設計によって反実的に公正である(20)。 0.77
This closely reflects what we discussed in section 2 about fair representations: train a model on a new space “cleaned” from all A information. これは、私たちがセクション2で議論した公正な表現について、密接に反映している: すべてのA情報から新しいスペースでモデルを“クリーン化”する。 0.59
Indeed, in that case we searched for statistical independence of ˆY on A while here we look for “causal independence” of ˆY on A. 実際、このケースでは、しばらくの間、a 上の sy の統計的独立を検索し、a 上の sy の "causal independence" を探しました。 0.70
In this specific sense, counterfactual fairness can be reached via a form of preprocessing of the dataset, and is very similar, in spirit, to the concept of fair representation. この特定の意味では、反事実的公平性はデータセットの前処理の形式によって達成され、公平表現の概念と精神的に非常に似ている。 0.65
We may then wonder why the fair representation approach, reaching DP, is a notion of group rather than individual fairness, while CFF is considered an individual notion: the point is simply that we employed two different concepts of しかし、なぜ公正表現アプローチがDPに到達したのかは、個別の公正性よりも群の概念であるのか、CFFは個別の概念であると考えられる: 要は、単に2つの異なる概念を取り入れただけである。
訳抜け防止モード: なぜか不思議に思うかもしれない DPに到達した公正表現アプローチは、個人的公正ではなく、グループの概念である。 CFFは個々の概念である。 要は2つの異なる概念を
10For instance, one could think of a measure taking into account only the A flip, without causal consequences, and valid on average over X as well (i.e. 10 例えば、Aのフリップのみを考慮に入れ、因果的な結果がなく、Xの上の平均値(すなわち)を考慮に入れればよい。 0.67
a group notion), namely group (複数形 groups) 0.59
P ( ˆYA←a,X←X = 1 | A = a) = P = 1 | A = a) 0.42
P ( ˆYA←b,X←X = 1 | A = a), P ( y y , X , X ) = 1 | A = a) 0.83
∀a, b ∈ A. a, b ∈ a である。 0.67
(24) ECFFCFFgroupindividu alA→ˆYinformationuseddCFF CFFpCFFconditionalco nsideronlysomepathsf romAtoˆYtobeunfair (24) ECFFCFFgroupindividu alA→YinformationuseddCFF CFFpCFF Conditionalconsidero nlysomepaths from Ato-Ytobeunfair 0.49
fact that these processes can potentially amplify biases at scale, and could possibly do that without human oversight. これらのプロセスが 大規模にバイアスを増幅する可能性があり 人間の監視なしでも 0.67
Even if a lot of work has been done in this respect, still there is confusion on the interplay among different fairness notions and metrics to assess them. この点に関して多くの作業が行われたとしても、さまざまな公正の概念とメトリクスの間の相互作用には混乱がある。 0.63
In this paper, we tried to highlight some important aspects about the relationships between fairness metrics, in particular with respect to the distinctions individual vs. group and observational vs. causality-based. 本稿では, 公平度指標の関係, 特に個人と集団の区別と, 因果関係に基づく観察と因果関係の区別について, 重要な側面を強調した。 0.78
Some have expressed critics and doubts about the possibility of capturing the complexity of notions such as equity and fairness with quantitative methods (Green and Hu, 2018). 一部の者は、量的手法による株式や公正といった概念の複雑さを捉える可能性について批判と疑念を表明している(Green and Hu, 2018)。 0.68
Even if these doubts are reasonable, we believe that quantitative research in the domain of fairness notions can provide an important contribution to the more general issue of bias discrimination, at least in terms of understanding and comprehension – let alone a boost in the attention of the scientific community on it. これらの疑念が妥当であるとしても、公正概念の領域における定量的研究は、少なくとも理解と理解の観点から、より一般的なバイアス差別の問題に重要な貢献をすることができると信じています。
訳抜け防止モード: これらの疑念が妥当であっても、公平性の概念の領域における定量的研究は、偏見差別のより一般的な問題に重要な貢献をもたらすと信じている。 少なくとも理解と理解の面では – 科学コミュニティの関心の高まりは言うまでもなく。
Thus, we strongly welcome more research both on the quantitative aspects, dealing with metrics assessment and algorithmic mitigation, and on the social and legal aspects, and hopefully in the interplay between them. したがって、量的側面、メトリクス評価とアルゴリズム的緩和、社会的および法的側面、そしてそれらの間の相互作用において、さらに多くの研究を歓迎する。 0.72
References Angwin, J., Larson, J., Mattu, S., Kirchner, L., 2016. 参考文献 Angwin, J., Larson, J., Mattu, S., Kirchner, L., 2016 0.73
Machine bias. ProPublica, May 23, 139–159. マシンバイアス。 ProPublica, May 23, 139–159。 0.75
Barocas, S., Hardt, M., Narayanan, A., 2019. Barocas, S., Hardt, M., Narayanan, A., 2019 0.76
Fairness and Machine Learning. 公正さと機械 学習。 0.75
fairmlbook.org. Fairmlbook.org 0.71
http://www.fairmlboo k.org. http://www.fairmlboo k.org 0.58
Barocas, S., Selbst, A.D., 2016. Barocas, S., Selbst, A.D., 2016 0.86
Big data’s disparate impact. ビッグデータの影響はさまざまだ。 0.77
Calif. L. Rev. Calif L.レヴ。 0.64
104, 671. Berk, R., 2009. 104, 671. 2009年、Berk, R。 0.78
The role of race in forecasts of violent crime. 暴力犯罪の予測における人種の役割。 0.72
Race and social problems 1, 231. レース 社会問題1,231です 0.61
Berk, R., Heidari, H., Jabbari, S., Joseph, M., Kearns, M., Morgenstern, J., Neel, S., Roth, A., 2017. Berk, R., Heidari, H., Jabbari, S., Joseph, M., Kearns, M., Morgenstern, J., Neel, S., Roth, A., 2017 0.81
A convex framework for fair regression. 公正回帰のための凸フレームワーク。 0.69
arXiv preprint arXiv:1706.02409 . arXiv preprint arXiv:1706.02409 0.69
Bickel, P.J., Hammel, E.A., O’Connell, J.W., 1975. Bickel, P.J., Hammel, E.A., O'Connell, J.W., 1975 0.90
Sex bias in grad- 学年における性バイアス 0.52
uate admissions: Data from berkeley. 入場許可:バークレーのデータ。 0.40
Science 187, 398–404. 187, 398–404頁。 0.63
Buolamwini, J., Gebru, T., 2018. Buolamwini, J., Gebru, T., 2018 0.72
Gender shades: ジェンダーシェード: 0.63
Intersectional accuracy disparities in commercial gender classification, in: Conference on fairness, accountability and transparency, PMLR. 商業性分類における間欠的精度の相違 : 公正性、説明可能性、透明性に関する会議, PMLR 0.69
pp. 77–91. pp. 77–91. 0.78
Calmon, F., Wei, D., Vinzamuri, B., Ramamurthy, K.N., Varshney, K.R., 2017. Calmon, F., Wei, D., Vinzamuri, B., Ramamurthy, K.N., Varshney, K.R., 2017 0.94
Optimized pre-processing for discrimination prevention, in: Advances in Neural Information Processing Systems, pp. 識別予防のための最適化前処理, in: advances in neural information processing systems, pp. 0.86
3992–4001. 3992–4001. 0.71
Chiappa, S., 2019. chiappa、2019年。 0.48
Path-specific counterfactual fairness, in: Proceedings of the AAAI Conference on Artificial Intelligence, pp. in: proceedings of the aaai conference on artificial intelligence, pp. (英語) 0.46
7801–7808. 7801–7808. 0.71
Chouldechova, A., 2017. Chouldechova, A., 2017年。 0.88
Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. 異なる影響を伴う公正な予測:再分裂予測器におけるバイアスの研究 0.76
Big data 5, 153–163. ビッグデータ5、153–163。 0.76
Chouldechova, A., Roth, A., 2018. chouldechova, a., roth, a., 2018年。 0.73
The frontiers of fairness in ma- maにおけるフェアネスのフロンティア 0.43
chine learning. チンパンジーの学習。 0.48
arXiv preprint arXiv:1810.08810 . arXiv preprint arXiv:1810.08810。 0.61
Chouldechova, A., Roth, A., 2020. chouldechova, a., roth, a., 2020年。 0.78
A snapshot of the frontiers of fairness in machine learning. 機械学習におけるフェアネスのフロンティアのスナップショット。 0.61
Communications of the ACM 63, 82–89. acm 63, 82-89の通信。 0.75
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R., 2012. Dwork, C., Hardt, M., Pitassi, T., Reingold, O., Zemel, R., 2012 0.80
Fairness through awareness, in: Proceedings of the 3rd innovations in theoretical computer science conference, pp. in: proceedings of the 3rd innovations in theoretical computer science conference, pp. (英語) 0.64
214–226. Green, B., Hu, L., 2018. 214–226. グリーン, B., Hu, L., 2018。 0.75
The myth in the methodology: Towards a recontextualization of fairness in machine learning, in: Proceedings of the machine learning: the debates workshop. the myth in the methodology: towards a recontextualization of fairness in machine learning, in: proceedings of the machine learning: the debates workshop (英語) 0.82
Hardt, M., 2014. hardt, m., 2014年。 0.82
How big data is unfair. ビッグデータがいかに不公平か。 0.62
Medium, https://medium. Medium, https://medium.com。 0.72
com/@ mrtz/how-big-data-is -unfair-9aa544d739de . 9aa544d739de.com/@ mrtz/how-big-data-is -unfair-9aa544d739de 。 0.15
Hardt, M., Price, E., Srebro, N., 2016. Hardt, M., Price, E., Srebro, N., 2016 0.76
Equality of opportunity in supervised learning, in: Advances in neural information processing systems, pp. 教師付き学習における機会の平等 : in: advances in neural information processing systems, pp. 0.89
3315–3323. 3315–3323. 0.71
Ilvento, C., 2019. Ilvento, C., 2019。 0.82
Metric learning for individual fairness. 個人的公正のためのメトリクス学習。 0.58
arXiv preprint arXiv:1906.00250 . arXiv arXiv:1906.00250 0.72
Jiang, R., Pacchiano, A., Stepleton, T., Jiang, H., Chiappa, S., 2020. Jiang, R., Pacchiano, A., Stepleton, T., Jiang, H., Chiappa, S., 2020 0.81
Wasserstein fair classification, in: Uncertainty in Artificial Intelligence, PMLR. Wasserstein fair classification, in: Uncertainty in Artificial Intelligence, PMLR. 0.85
pp. 862–872. pp. 862–872. 0.78
Johndrow, J.E., Lum, K., et al , 2019. Johndrow, J.E., Lum, K., et al , 2019。 0.95
An algorithm for removing sensitive information: application to race-independent recidivism prediction. センシティブな情報を削除するアルゴリズム:人種に依存しない回帰予測への応用 0.65
The Annals of Applied Statistics 13, 189–220. 応用統計の年代記 13, 189-220。 0.70
Jung, C., Kearns, M., Neel, S., Roth, A., Stapleton, L., Wu, Z.S., 2019. Jung, C., Kearns, M., Neel, S., Roth, A., Stapleton, L., Wu, Z.S., 2019 0.88
Eliciting and enforcing subjective individual fairness. 主観的個人的公正を緩和し、強制する。 0.45
arXiv preprint arXiv:1905.10660 . arXiv preprint arXiv:1905.10660 0.70
Kamiran, F., Calders, T., 2009. カミラン, F., Calders, T., 2009年。 0.79
Classifying without discriminating, in: 2009 2nd International Conference on Computer, Control and Communication, IEEE. 2009年、第2回コンピュータ、制御、通信に関する国際会議(ieee)に出席。 0.57
pp. 1–6. Kamiran, F., Calders, T., 2012. pp. 1–6. カミラン, F., Calders, T., 2012年。 0.78
Data preprocessing techniques for classification without discrimination. 識別のない分類のためのデータ前処理技術 0.73
Knowledge and Information Systems 33, 1–33. 知識・情報システム33, 1-33。 0.79
Kamiran, F., ˇZliobait˙e, I., Calders, T., 2013. カミラン、f.、zliobait、i.、calders、t.、2013年。 0.37
Quantifying explainable discrimination and removing illegal discrimination in automated decision making. 説明可能な差別の定量化と自動意思決定における違法な差別の排除。 0.58
Knowledge and information systems 35, 613–644. 知識と情報システム 35, 613–644。 0.90
Kearns, M., Neel, S., Roth, A., Wu, Z.S., 2018. Kearns, M., Neel, S., Roth, A., Wu, Z.S., 2018 0.87
Preventing fairness gerrymandering: Auditing and learning for subgroup fairness, in: International Conference on Machine Learning, PMLR. prevention fairness gerrymandering: auditing and learning for subgroup fairness in: international conference on machine learning, pmlr (英語) 0.77
pp. 2564– 2572. pp. 2564– 2572. 0.90
Kilbertus, N., Carulla, M.R., Parascandolo, G., Hardt, M., Janzing, D., Sch¨olkopf, B., 2017. Kilbertus, N., Carulla, M.R., Parascandolo, G., Hardt, M., Janzing, D., Sch solkopf, B., 2017 0.89
Avoiding discrimination through causal reasoning, in: Advances in Neural Information Processing Systems, pp. 因果推論による差別回避 : in: advances in neural information processing systems, pp. 0.76
656–666. Kleinberg, J., Mullainathan, S., Raghavan, M., 2016. 656–666. Kleinberg, J., Mullainathan, S., Raghavan, M., 2016 0.74
Inherent trade-offs in the fair determination of risk scores. リスクスコアの公平な決定に固有のトレードオフ。 0.47
arXiv preprint arXiv:1609.05807 . arXiv preprint arXiv:1609.05807 0.69
Kusner, M.J., Loftus, J., Russell, C., Silva, R., 2017. Kusner, M.J., Loftus, J., Russell, C., Silva, R., 2017 0.87
Counterfactual fairness, in: Advances in neural information processing systems, pp. counterfactual fairness, in: advances in neural information processing systems, pp。 0.76
4066–4076. 4066–4076. 0.71
Louizos, C., Swersky, K., Li, Y., Welling, M., Zemel, R., 2015. Louizos, C., Swersky, K., Li, Y., Welling, M., Zemel, R., 2015 0.80
The variational fair autoencoder. 変分フェアオートエンコーダ。 0.48
arXiv preprint arXiv:1511.00830 . arXiv preprint arXiv:1511.00830 0.69
McNamara, D., Ong, C.S., Williamson, R.C., 2017. McNamara, D., Ong, C.S., Williamson, R.C., 2017 0.95
Provably fair representations. おそらく公正 表現。 0.51
arXiv preprint arXiv:1710.04394 . arXiv preprint arXiv:1710.04394 0.69
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., Galstyan, A., 2019. Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., Galstyan, A., 2019 0.81
A survey on bias and fairness in machine learning. 機械学習におけるバイアスと公平性に関する調査 0.76
arXiv preprint arXiv:1908.09635 . arXiv preprint arXiv:1908.09635 0.69
Mitchell, S., Potash, E., Barocas, S., D’Amour, A., Lum, K., 2018. Mitchell, S., Potash, E., Barocas, S., D’Amour, A., Lum, K., 2018 0.80
Prediction-based decisions and fairness: A catalogue of choices, assumptions, and definitions. 予測に基づく決定と公平性: 選択、仮定、定義のカタログ。 0.74
arXiv preprint arXiv:1811.07867 . arXiv preprint arXiv:1811.07867 0.69
Narayanan, A., 2018. ナラヤナン、2018年。 0.41
Translation tutorial: 21 fairness definitions and their politics, in: Proc. 翻訳チュートリアル:21のフェアネス定義とその政治、in: proc。 0.72
Conf. Fairness Accountability Transp., New York, USA, pp. Conf Fairness Accountability Transp., New York, USA, pp. 0.67
6–2. O’neil, C., 2016. 6–2. O'neil, C., 2016年。 0.79
Weapons of math destruction: How big data in- 数学の破壊の武器 : ビッグデータの活用 0.77
creases inequality and threatens democracy. 不平等と民主主義を脅かす 0.67
Crown. Oneto, L., Chiappa, S., 2020. Crown Oneto, L., Chiappa, S., 2020。 0.67
Fairness in machine learning, in: Re- 機械学習における公正性: Re- 0.81
cent Trends in Learning From Data. データからの学習におけるセントトレンド 0.76
Springer, pp. スプリンガー、p.。 0.51
155–196. Pearl, J., Mackenzie, D., 2018. 155–196. pearl, j., mackenzie, d., 2018年。 0.72
The book of why: the new science of The book of why: the new science of... 0.79
cause and effect. Basic Books. 原因と効果 基本本。 0.58
Verma, S., Rubin, J., 2018. Verma, S., Rubin, J., 2018 0.73
Fairness definitions explained, in: 2018 IEEE/ACM International Workshop on Software Fairness (FairWare), IEEE. 2018 ieee/acm international workshop on software fairness (fairware) ieeeで説明されている。 0.64
pp. 1–7. Washington, A.L., 2018. pp. 1–7. 2018年、ワシントンA.L.。 0.75
How to argue with an algorithm: Lessons アルゴリズムで議論する方法: 教訓 0.60
from the compas-propublica debate. compas-propublicaの議論から。 0.70
Colo. Tech. LJ 17, 131. 技術系。 LJ 17, 131。 0.64
Yang, F., Cisse, M., Koyejo, O.O., 2020. Yang, F., Cisse, M., Koyejo, O.O., 2020 0.89
Fairness with overlapping groups; a probabilistic perspective. 重複群による公平性; 確率的観点。 0.69
Advances in Neural Information Processing Systems 33. 神経情報処理システム33の進歩 0.62
Zafar, M.B., Valera, I., Gomez Rodriguez, M., Gummadi, K.P., 2017. Zafar, M.B., Valera, I., Gomez Rodriguez, M., Gummadi, K.P., 2017 0.94
Fairness beyond disparate treatment & disparate impact: Learning classification without disparate mistreatment, in: Proceedings of the 26th international conference on world wide web, pp. 異種治療と異種影響を超えた公平性:異種虐待を伴わない分類を学習すること, in: 第26回世界広汎ウェブ国際会議の成果, pp。 0.69
1171– 1180. 1171– 1180. 0.94
16 16 0.85
Zemel, R., Wu, Y., Swersky, K., Pitassi, T., Dwork, C., 2013. Zemel, R., Wu, Y., Swersky, K., Pitassi, T., Dwork, C., 2013 0.80
Learning fair representations, in: International Conference on Machine Learning, pp. learning fair representations, in: international conference on machine learning, pp. (英語) 0.84
325–333. 17 325–333. 17 0.78

翻訳にはFugu-Machine Translatorを利用しています。