論文の概要、ライセンス

# (参考訳) プライオリティに基づく個人とグループフェアネスのためのポストプロシースバイアス軽減 [全文訳有]

Priority-based Post-Processing Bias Mitigation for Individual and Group Fairness ( http://arxiv.org/abs/2102.00417v1 )

ライセンス: CC BY 4.0
Pranay Lohia(参考訳) グループと個人の公平性に関する処理後バイアス軽減アルゴリズムは、マルチクラスの数値ラベルを持つ回帰モデルやデータセットでは機能しません。 本稿では,社会経済的要因や不公平性に拘わらず,類似する個人が同様の結果を得るべきだという考えから,グループと個人の公平性に対する優先順位に基づく後処理バイアス緩和を提案する。 この提案は,スマートグリッドにおける関税配分に関するケーススタディによって確立される。 提案手法は,ユーザのセグメンテーションアルゴリズムを用いて,消費戦略をよりよく把握する。 このプロセスは、最大不正に直面しているグループと個人に対する優先順位に基づく公正価格を保証する。 関税計算の実施プロセスを変更することなく、住民全体に対する公正な関税配分という概念を支持している。 また,本手法の有効性を検証し,実世界データセットに対する従来よりも優れた性能を示す。

Previous post-processing bias mitigation algorithms on both group and individual fairness don't work on regression models and datasets with multi-class numerical labels. We propose a priority-based post-processing bias mitigation on both group and individual fairness with the notion that similar individuals should get similar outcomes irrespective of socio-economic factors and more the unfairness, more the injustice. We establish this proposition by a case study on tariff allotment in a smart grid. Our novel framework establishes it by using a user segmentation algorithm to capture the consumption strategy better. This process ensures priority-based fair pricing for group and individual facing the maximum injustice. It upholds the notion of fair tariff allotment to the entire population taken into consideration without modifying the in-built process for tariff calculation. We also validate our method and show superior performance to previous work on a real-world dataset in criminal sentencing.
公開日: Sun, 31 Jan 2021 09:25:28 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
PRIORITY-BASED POST-PROCESSING BIAS MITIGATION FOR INDIVIDUAL AND GROUP 個人およびグループに対する優先順位に基づく後処理バイアス軽減 0.44
FAIRNESS †Pranay Lohia FAIRNESS'Pranay Lohia 0.87
†IBM Research AI, India インドのIBM Research AI 0.73
1 2 0 2 n a J 1 2 0 2 n a J 0.85
1 3 ] I A . 1 3 【私】 A! 0.70
s c [ 1 v 7 1 4 0 0 sc [ 1 v 7 1 4 0 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
ABSTRACT Previous post-processing bias mitigation algorithms on both group and individual fairness don’t work on regression models and datasets with multi-class numerical labels. ABSTRACT グループと個人の公平性に関する処理後バイアス軽減アルゴリズムは、マルチクラスの数値ラベルを持つ回帰モデルやデータセットでは機能しません。 0.77
We propose a priority-based postprocessing bias mitigation on both group and individual fairness with the notion that similar individuals should get similar outcomes irrespective of socio-economic factors and more the unfairness, more the injustice. 本稿では,社会経済的要因や不公平性に拘わらず,類似する個人が類似した結果を得るべきだという考えから,グループと個人の公平性に対する優先順位に基づく後処理バイアス緩和を提案する。 0.66
We establish this proposition by a case study on tariff allotment in a smart grid. この提案は,スマートグリッドにおける関税配分に関するケーススタディによって確立される。 0.62
Our novel framework establishes it by using a user segmentation algorithm to capture the consumption strategy better. 提案手法は,ユーザのセグメンテーションアルゴリズムを用いて,消費戦略をよりよく把握する。 0.73
This process ensures priority-based fair pricing for group and individual facing the maximum injustice. このプロセスは、最大不正に直面しているグループと個人に対する優先順位に基づく公正価格を保証する。 0.57
It upholds the notion of fair tariff allotment to the entire population taken into consideration without modifying the in-built process for tariff calculation. 関税計算の実施プロセスを変更することなく、住民全体に対する公正な関税配分という概念を支持している。 0.63
We also validate our method and show superior performance to previous work on a real-world dataset in criminal sentencing. また,本手法の有効性を検証し,実世界データセットに対する従来よりも優れた性能を示す。 0.60
Index Terms— Priority-based, Post-processing fairness, Group Index Terms - 優先順位ベース、後処理フェアネス、グループ 0.63
fairness, Individual fairness, Tariff allotment 公平さ 個々人の公平さ 関税配分 0.51
1. INTRODUCTION Over the past few years, there has been a rapid development in the domain of machine learning and its application. 1. 導入 ここ数年、機械学習とその応用分野において、急速に発展してきた。 0.63
As a consequence of that, machine learning systems are now being used as a tool to make high-stakes decisions, which could affect an individual’s daily life. その結果、機械学習システムは、個人の日常生活に影響を及ぼす可能性のある高い意思決定のためのツールとして、現在使用されている。 0.82
However, it has been observed that these machine learning systems sometimes produce an outcome that is unfair or discriminatory for minorities, historically disadvantaged populations, and other groups. しかし、これらの機械学習システムは、マイノリティ、歴史的に不利な人口、その他のグループにとって不公平または差別的な結果をもたらすことがある。 0.63
For example, in COMPAS [1], the algorithm used for recidivism prediction produces a much higher false-positive rate for black people than white people, therefore being discriminatory for black people. 例えば、CompAS [1]では、リシディズム予測に使用されるアルゴリズムは、白人よりも黒人の方がはるかに高い偽陽性率を生じるため、黒人にとって差別的である。 0.71
Bias creeps into the machine learning model because of many reasons. バイアスは、多くの理由から機械学習モデルに忍び込みます。 0.74
Skewed training sample, sample size disparity, and proxies are a few of the many reasons which lead the system to be unfair towards one group. 歪んだトレーニングサンプル、サンプルサイズ格差、プロキシは、システムがひとつのグループに対して不公平になる多くの理由の1つです。 0.72
In general, the assumption of one size fits all policy lead to discrimination among groups. 一般に、1つの大きさの仮定はすべてのポリシーに適合し、グループ間の差別につながる。 0.63
There are two central notions of fairness in decision making: individual fairness and group fairness [2]. 意思決定における公平性には2つの中心的な概念がある:個人的公平性と集団的公平性[2]。 0.52
While individual fairness, in a broader sense, requires similar individuals should be treated similarly whereas group fairness seeks for some statistical measure to be equal among group defined by protected attributes (such as age, gender, race, and religion). より広い意味では、個々人の公平性も同様に扱われるべきであるのに対して、集団公正性は、保護された属性(年齢、性別、人種、宗教など)によって定義されたグループ間で等しい統計尺度を求める。 0.65
Disparate impact (DI) is a standard measure for group fairness. 異なる影響(DI)はグループフェアネスの標準尺度である。 0.75
Pre-processing, in-processing, and post-processing are three stages for performing debiasing in the machine learning model. 前処理。 インプロセッシングとポストプロセッシングは、機械学習モデルでデバイアスを行うための3つの段階である。 0.61
Pre-processing involves transforming the feature space into another feature space which, as a whole, is independent of the protected attribute. プリプロセッシングは、機能空間を、保護された属性から独立した別の機能空間に変換します。 0.72
The in-training algorithm adds a regularization term in the objective function of the model to achieve independence from a in-trainingアルゴリズムは、aから独立するためにモデルの目的関数に正規化項を追加する。
訳抜け防止モード: in-トレーニングアルゴリズムは、モデルの目的関数に正規化項を追加する あるものから独立する
0.81
protected attribute. protected属性。 0.75
While in the post-processing algorithm, the goal is to edit the outcome to achieve fairness. 後処理アルゴリズムでは、目的は公平性を達成するために結果を編集することです。 0.74
Several works have been done on price fairness in a smart grid. スマートグリッドにおける価格公平性に関するいくつかの作業が行われている。 0.51
In [3], the author has used Q-Learning with neural network approximation to assign the right price to the individual of different groups. 3]では、ニューラルネットワーク近似を用いたQ-Learningを使用して、異なるグループの個人に適切な価格を割り当てている。 0.79
In [4], the author shows a strong correlation between the socioeconomic factor and the load consumption pattern. 4]では、社会経済的要因と負荷消費パターンとの間に強い相関関係を示す。 0.75
In this paper, we first propose a tariff allotment policy. 本稿ではまず,関税割当政策を提案する。 0.67
The electricity load forecasting task is a time-series forecasting problem. 電力負荷予測タスクは時系列予測問題である。 0.66
SVR has been found to perform better for time-series forecasting [5]. SVRは, 時系列予測 [5] において, 性能が向上していることが判明した。 0.57
We use SVR to predict day-ahead aggregated load for each of the consumers for the entire day. 私たちは、SVRを使用して、一日中各消費者の日別集計負荷を予測します。 0.70
The reason for day-ahead allocation being that it makes the consumer aware of the power consumption. 日単位の割り当ての理由は、消費者が電力消費を認識しているためである。 0.73
The power market prefers tariff slab or bucketing for pricing [6]. 電力市場は価格設定のために関税スラブまたはバケットを好む[6]。 0.72
For creating slabs, we use the Gaussian bucketing method to bin the predicted value and assign respective tariff to individuals. スラブの作成にはガウスバケット法を用いて予測値の結合を行い、個人にそれぞれの関税を割り当てる。 0.60
An application-independ ent priority-based post-processing debiasing algorithm with the notion of both group and individual fairness is used to remove the bias associated with the previous step that uses machine learning as an architecture. 機械学習をアーキテクチャとして使用する前回のステップに関連するバイアスを取り除くために、グループと個人の公平性という概念を持つアプリケーション非依存の優先順位に基づく後処理デバイアスアルゴリズムが使用される。
訳抜け防止モード: グループと個別の公平性の概念を用いたアプリケーション-独立プライオリティ-ベースポスト-プロセッシングデバイアスアルゴリズム 機械学習をアーキテクチャとして使用する以前のステップに関連するバイアスを取り除く。
0.80
In most real scenarios, we won’t have access to the internals of models. ほとんどの実際のシナリオでは、モデルの内部にアクセスすることはできません。 0.74
Therefore it is evident that the post-processing debiasing algorithm with the notion of both group and individual fairness suits the most [2]. したがって、群と個性の両方の概念による後処理のデバイアスアルゴリズムが最も [2] に適合していることは明らかである。 0.74
The tradeoff between Bias and Accuracy [7] limits the number of individual samples allowed to be debiased. BiasとAccuracyのトレードオフ[7]は、個々のサンプルの偏見を許容する数を制限する。 0.82
This brings the requirement of individuals facing more unfairness to be debiased in priority [8]. これは、より不公平に直面している個人の要求を優先的に偏見させる[8]。 0.63
Using this approach, we can achieve fairness faster both in time and number of samples whose label needs to be changed to achieve fairness. このアプローチにより、公正性を達成するためにラベルを変更する必要のあるサンプルの時間と数の両方で、より迅速に公平性を達成できます。 0.62
To the best of our knowledge, all existing post-processing algorithms don’t work on priority-based debiasing [2, 9, 10, 11, 12]. 私たちの知る限り、既存のすべての後処理アルゴリズムは優先度ベースの偏見 [2, 9, 10, 11, 12] では機能しません。 0.76
The starting point for our proposed approach is the individual bias detector of [13], which finds samples whose model prediction changes when only protected attributes change and calculate Unfairness Quotient, which is used to identify the priority order of the samples. 提案手法の出発点は[13]の個人バイアス検出器であり,保護された属性のみの場合にモデル予測が変化するサンプルを見つけ,サンプルの優先順位を識別するために使用される不公平さ商を計算する。 0.88
We have two major contributions to this work: 1. この作業には2つの大きな貢献があります。 0.72
An application-independ ent priority-based post-processing debiasing algorithm that improves both individual and group fairness. 個別性とグループフェアネスを改善するアプリケーション非依存の優先度ベースの後処理デバイアスアルゴリズム。 0.58
2. A case study to showcase a fair tariff allocation strategy which charges a similar price to an individual with similar load characteristics irrespective of socio-economic factors. 2. 社会経済的要因に関係なく、同様の負荷特性を有する個人に同様の価格を請求する公正な関税配分戦略を示すケーススタディ。 0.80
Compared to the randomized debiasing method used in [2], we have superior performance. [2] で用いられるランダム化脱バイアス法に比べ, 性能は良好である。 0.78
We validate our proposition on a realworld dataset in criminal sentencing [14]. 実世界のデータセットに関する提案を刑事判決 [14] で検証します。 0.71
The remainder of the paper is organized as follows. 論文の残りは以下の通り整理される。 0.69
First, we provide details on the tariff allocation policy using [15] in Sec.3. まず,[15] を sec.3 に使用して,関税配分政策の詳細を述べる。 0.76
Next, we propose a prioritybased post-processing debiasing algorithm in Sec.4 with results on real-world datasets [15] [14] in Sec.5. 次に,Sec.5の現実世界のデータセット [15] [14] を用いて,Sec.4 における優先度に基づく後処理脱バイアスアルゴリズムを提案する。 0.64
We have showcased the comparison result with [2]. 我々は [2] との比較結果を示した。 0.88
Finally, we conclude the paper in Sec.6. 最後に、Sec.6で論文を締めくくる。 0.65
英語(論文から抽出)日本語訳スコア
2. FAIRNESS 2. FAIRNESS 0.85
3.3. Allotment Policy: Before proposing a priority-based post-processing debiasing algorithm, we first introduce the working definitions of two important notions of fairness i.e. 3.3. 割当政策 優先度に基づく後処理脱バイアスアルゴリズムを提案する前に、まず、フェアネスという2つの重要な概念の動作定義を導入する。 0.58
group and individual fairness. グループと個人の公平性。 0.68
Consider a supervised classification problem with features X ∈ X , protected attributes P ∈ P, and labels C ∈ C. We are given a set of training samples {(x1, p1, c1), . 特徴 x ∈ x 、保護属性 p ∈ p およびラベル c ∈ c を持つ教師付き分類問題を考える。
訳抜け防止モード: 特徴 x ∈ x と保護属性 p ∈ p, を持つ教師付き分類問題を考える。 トレーニングサンプルのセット { ( x1, p1, c1 ) が与えられる。
0.64
. . , (xn, pn, cn)} and would like to learn a classifier ˆC : X × P → C. For ease of explanation, we will only consider a scalar binary protected attribute, i.e. . . 、 (xn, pn, cn)} であり、分類子 (c : x × p → c) を学ぼうとする。
訳抜け防止モード: . . ,(xn, pn, cn ) } で、説明の容易さのために、分類器 (C : X × P → C) を学びたい。 スカラーバイナリ保護属性、すなわち、eのみを考慮します。
0.83
P = {0, 1}, and a binary classification problem, i.e. p = {0, 1} であり、二進分類問題(すなわち)である。 0.72
C = {0, 1}. c = {0, 1} である。 0.87
The value p = 1 is set to correspond to the privileged / majority group (e.g. 値 p = 1 は特権/多数派グループ(例えば)に対応するように設定される。
訳抜け防止モード: 値 p = 1 がセットされる to correspond to the privileged / majority group (e.g.)
0.93
male as in this application) and p = 0 to unprivileged / minority group (e.g. このアプリケーションのように男性)とp = 0から特権のない/少数派グループ(例えば。 0.77
female). The value c = 1 is set to correspond to a favorable outcome (e.g. 女性)。 値 c = 1 は好ましい結果(例えば)に対応するように設定される。 0.78
receiving a loan or not being arrested) and c = 0 to an unfavorable outcome. ローンを受け取る、または逮捕されない)と不利な結果へのc = 0。 0.73
2.1. Group Fairness Definition 1 We define group fairness in terms of disparate impact [7] as follows. 2.1. グループ公平性定義 1 グループ公平性は、それぞれ異なる影響 [7] で次のように定義します。 0.70
There is disparate impact if E[ˆc(X, P ) | P = 0] E[ˆc(X, P ) | P = 1] E[\c(X, P ) | P = 0] E[\c(X, P ) | P = 1] と異なる影響がある。
訳抜け防止モード: E[\c(X, P ) | P = 0 ] E[\c(X,P) の場合、異なる影響がある。 P ) | P = 1 ]
0.87
(1) is less than 1 −  or greater than (1 − )−1, where a common value of  is 0.1 or 0.2. (1) は 1 − s より小さい、または (1 − s) − 1 よりも大きい、ここでは s の共通値は 0.1 または 0.2 である。 0.78
In our method, the value of  is 0.1. 本手法では, s の値は 0.1 である。 0.73
In our designed scheme, group fairness implies that the prediction for an individual across different groups should be almost equiprobable. 私たちの設計スキームでは、グループ公平性は、異なるグループにわたる個人の予測がほぼ実行可能であるべきであることを示唆しています。
訳抜け防止モード: 我々の設計した計画では 集団公正とは 異なるグループにまたがる個人の予測は、ほぼ同等であるべきである。
0.61
2.2. Individual Fairness Definition 2 From the data, a given sample i has individual bias if ˆc(xi, p = 0) (cid:54)= ˆc(xi, p = 1). 2.2. 個々のフェアネス定義 2 データから、与えられたサンプル i が個々のバイアスを持つ場合、そのバイアスは sc(xi, p = 0) (cid:54)= sc(xi, p = 1) である。 0.71
In our designed scheme, individual fairness confirms that similar individuals should be treated similarly i.e. 私たちの計画では、個人の公平性は類似した個人が同様に扱われるべきであることを確認する。 0.51
prediction allotted to a particular individual should not be sensitive to the protected attributes of the individual [2]. 特定の個人に割り当てられた予測は、個人の保護された属性に敏感であるべきではない[2]。 0.75
3. CASE STUDY: TARIFF ALLOTMENT 3. ケーススタディ:TARIFF 割当金 0.72
3.1. Dataset: For the evaluation purpose, The CER ISSDA dataset [15] is used which was obtained by the Irish Commission for Energy Regulation (CER) for the purpose to analyze the impact on consumer’s electricity consumption. 3.1. データセット: 評価目的のために、アイルランドエネルギー規制委員会(cer)が消費者の電力消費への影響を分析する目的で取得したcer issdaデータセット[15]を使用する。 0.71
It contains half-hourly load consumption data points of around 5000 Irish households and SMEs. アイルランドの約5000世帯と中小企業の半時間の消費データを含む。 0.67
In addition to the load data, the dataset also includes some survey questionnaire which describes the socio-economic condition of the consumer. 負荷データに加えて、データセットには、消費者の社会経済状態を記述する調査アンケートも含まれている。 0.78
3.2. Learning Stage: The inputs features are past load values, temperature, calendar details, and socio-economic factors. 3.2. 学習段階:入力機能は過去の負荷値、温度、カレンダーの詳細、および社会経済的要因です。 0.74
Our day-ahead load forecasting algorithm uses Adaboost regressor [16] with the base learner as support vector regression (SVR). 日頭負荷予測アルゴリズムは,ベース学習者をサポートベクトル回帰 (svr) としてadaboost regressor [16] を用いる。 0.86
Adaboost regressor is a meta-estimator that begins by fitting the base estimator which in this case is SVR. Adaboost regressorは、この場合SVRであるベース推定器を取り付けることから始まるメタ推定器です。 0.81
We use Root mean squared error (RMSE) calculation to evaluate the model (Adaboost+SVR) and found to be better performing with a value of 8.3 against 10.54 in the base estimator case. モデル(Adaboost+SVR)を評価するために,Root平均二乗誤差(RMSE)計算を用い,基本推定値の8.3対10.54でより優れた性能を示した。 0.83
We are proposing a day-ahead tariff allocation policy to assign a tariff band or slab to the individual [6]. 私たちは、個人に関税帯またはスラブを割り当てるための日別関税割り当てポリシーを提案しています[6]。 0.59
The role of tariff bands is that all the individuals who are assigned to the same tariff band are charged the same amount. 関税バンドの役割は、同じ関税バンドに割り当てられた全ての個人が同じ金額を請求されることである。 0.72
To distinguish the consumer, we use the Gaussian bucketing technique. 消費者を区別するためには、ガウスバケット技術を用いる。 0.61
The reason behind choosing this method to represent tariff bands was that the probability distribution of the dataset is Gaussian in nature. 関税帯を表すためにこの方法を選んだ理由は、データセットの確率分布が本質的にガウスであるからです。 0.73
Assume the prediction from model be ˆy1, ˆy2, . モデルからの予測は sy1, sy2, と仮定する。 0.70
. . , ˆyn, we calculate the mean µ and the standard deviation ρ and assign all the individual same tariff whose predicted value lies in [µ − iρ, µ − (i − 1)ρ) or [µ+iρ, µ+(i+1)ρ) ∀i ∈ Z. . . すると、平均 μ と標準偏差 ρ を計算し、予測値が [μ − iρ, μ − (i − 1)ρ) か [μ+iρ, μ+(i+1)ρ) であるような個々の同じ関税を割り当てる。 0.84
The algorithm 1 is used to assign tariff band. アルゴリズム1は、関税帯の割り当てに用いられる。 0.75
The input to algorithm is predicted load (ˆy) while output is tagged tariff band (tid). アルゴリズムへの入力は予測負荷(i)であり、出力はタグ付き関税帯域(tid)である。 0.72
The time complexity of the algorithm to assign tariff to each individual is O(n) where n is the number of individual in the system. 各個人に関税を割り当てるアルゴリズムの時間の複雑さは、n がシステム内の個人数である O(n) である。 0.71
Algorithm 1 Tariff allotment policy Input: τ = {(cid:104)id1, ˆy1(cid:105),(cid:104 )id2, ˆy2(cid:105), . アルゴリズム1 ターゲット割当ポリシー 入力: τ = {(cid:104)id1, sy1(cid:105), (cid:104)id2, sy2(cid:105), 0.80
. . ,(cid:104)idn, ˆyn(cid:105)} ⊂ ID × ˆY Output: {(cid:104)id1, tid1(cid:105),(cid:1 04)id2, tid2(cid:105), . . . 出力: {(cid:104)id1, tid1(cid:105), (cid:104)id2, tid2(cid:105), 。 0.79
. . ,(cid:104)idn, tidn(cid:105)} . . ,(cid:104)idn, tidn(cid:105)} 0.88
function ASSIGNTARIFF(τ) 関数 ASSIGNTARIFF(τ) 0.83
tariffAllotlist ← { } µ, ρ = mean(τ ), stdDev(τ ) for all (cid:104)id, ˆy(cid:105) ∈ τ do tariffAllotlist ^ { } μ, ρ = mean(* ) stdDev(* ) for all (cid:104)id, sy(cid:105) ∈ . do 0.80
(cid:46) mean and stdDev of ˆy ∈ τ ρ (cid:105)) tariffAllotlist.appe nd((cid:104)id, x−µ cid:46) 平均および stdDev の y ∈ (cid:105) 関税Allotlist.append((ci d:104)id, x−μ 0.83
end for leastTariff = min(tariffAllotlist) (cid:46) return min value of second end for leasttariff = min(tariffallotlist) (cid:46) return min value of second 0.90
element of tuples tuple (複数形 tuples) 0.44
return tariffAllotlist return priceAllotlist 0.78
end function end + function 0.72
4. PRIORITY-BASED POST-PROCESSING BIAS 4. Priority-based POST-PRESSING BIAS 0.66
MITIGATION The policy described in the previous section doesn’t take into account the biased behavior of the model concerning the protected attributes known at runtime i.e. ミミネーション 前節で説明したポリシーは、実行時に知られている保護属性に関するモデルのバイアスされた振る舞いを考慮していない。 0.55
impact of socio-economic factors. 社会経済的要因の影響。 0.65
Before we start discussing priority-based post-processing methodology for removing group and individual biases concerning the protected attribute (age, race, and gender), one may argue that the debiasing phase would not be required if during model training we would have removed these sensitive attributes as features. 保護された属性(年齢、人種、性別)に関するグループおよび個人のバイアスを取り除くための優先順位ベースの後処理方法論について議論を始める前に、モデルトレーニング中にこれらの敏感な属性を機能として削除した場合、デバイアスフェーズは必要ありません。 0.64
However, this method poses this weakness because the non-sensitive attribute can behave as a proxy for the sensitive attribute that may not be visible at first [17]. しかし、この方法は、無感性属性が最初[17]で目に見えない繊細な属性のプロキシとして振る舞うことができるため、この弱点をもたらす。 0.62
Therefore a post-processing debiasing scheme is proposed. そのため,ポストプロセッシング・デバイアス方式が提案されている。 0.55
Another advantage which post-processing debiasing process provides is that it can be applied to any black-box model. 後処理のデバイアス処理がもたらすもう1つの利点は、あらゆるブラックボックスモデルに適用できることです。 0.56
Bias and Accuracy always have a trade-off [7]. バイアスと正確性は常にトレードオフがある[7]。 0.75
Post-processing individual bias mitigation may result in drop in accuracy. 処理後の個々のバイアス軽減は精度を低下させる可能性がある。 0.56
While performing the debiasing process, we always have to consider a bandwidth of accuracy loss allowed and thereby limiting the number of individuals allowed to be debiased. デバイアス処理をしている間、私たちは常に精度損失の帯域幅を考慮し、デバイアスを許容する個人数を制限する必要があります。
訳抜け防止モード: デバイアスのプロセスを実行する間、私たちは常に 精度損失の帯域幅を考慮し、偏りを許容する個数を制限できるようにする。
0.68
Hence, we are using group discrimination metric (Disparate Impact) as a threshold to limit the number of individual samples to be debiased. したがって、グループ識別メトリック(Disparate Impact)をしきい値として使用し、デバイアス対象のサンプル数を制限しています。 0.71
We terminate the debiasing process once the fair threshold is reached or it gets terminated by itself [2]. フェアしきい値に達するか、それ自身で終了すると、デバイアスプロセスは終了します[2]。 0.59
We define Unfairness Quotient as the difference between the actual model prediction and the prediction after perturbing. 不公平度は、実際のモデル予測と摂動後の予測の違いとして定義します。 0.73
It signifies the amount of unfairness associated. それは関係する不公平の量を意味する。 0.55
Priority-based debiasing is needed to ensure priority-based justice to the individual facing maximum unfairness. 優先に基づく偏見は、最大不公平に直面している個人に対して優先に基づく正義を確保するために必要である。 0.44
This allows individuals facing more これにより、より多くの個人が 0.49
英語(論文から抽出)日本語訳スコア
by the Gaussian bucketing for tariff band allocation. 関税帯域割り当てのための ガウシのバケットで 0.60
We empirically verified the distribution between average power consumption and the number of individuals and found it to be Gaussian with mean 32.24 and variance 94.67. 平均消費電力と個人数との分布を実証的に検証した結果,平均32.24および分散94.67でガウス的であることが判明した。 0.73
The training samples contain two protected attributes i.e. トレーニングサンプルには2つの保護属性がある。 0.76
Gender and Age concerning which model can have group as well as individual unfairness. どのモデルがグループと個人の不公平を持つことができるかに関する性別と年齢。 0.68
Since our proposed priority-based post-processing algorithm is application-independ ent, we verified the effectiveness of the algorithm on the tariff allotment model. 提案アルゴリズムはアプリケーションに依存しないため,関税割当モデルにおけるアルゴリズムの有効性を検証した。 0.73
The notion of fairness requires the definitions of group, i.e. 公平性の概念は群の定義、すなわち群の定義を必要とする。 0.62
privileged and unprivileged and output class labels, i.e. 特権付き、特権なし、および出力クラスラベル、すなわち、 0.71
favorable and unfavorable. 好意的で 好ましくない 0.43
For the Gender attribute, the group comprises Male and Female, and for the Age attribute, we define the group as young i.e with Age ≤ 45 and old i.e Age > 45. ジェンダー属性では、グループは男性と女性で構成され、年齢属性では、グループを年齢≤ 45 と古い年齢 > 45 で若いグループとして定義します。 0.77
We used the percentage strategy and chose lower 40% as favorable and upper 60% as unfavorable which makes sense i.e. 私たちはパーセンテージ戦略を使い、40%以下を好ましくない、60%以上を好ましくないと選択しました。 0.76
one is in a favorable zone if he/she is paying less than average. 1つは、平均より安い場合、有利なゾーン内にある。 0.74
Figure 1 showcases the result of priority-based algorithm for protected attribute Age. 図1は、保護属性年齢に対する優先度に基づくアルゴリズムの結果を示しています。 0.63
bias to be debiased in priority. 優先的に偏見を逸脱させます 0.61
This algorithm can be implemented on N-nary and continuous-valued protected attributes (shown in Figure 1) since they can always be categorized into privileged and unprivileged i.e. このアルゴリズムは、N-naryおよび連続値保護属性(図1に示す)に実装することができる。
訳抜け防止モード: このアルゴリズムは、N-nary および連続-値付き保護属性(図 1 に示す)に実装することができる。 特権と特権の無い I. E. に分類される
0.73
binary situation. 4.1. 二元状態。 4.1. 0.65
Individual Bias detection and Unfairness Scoring Consider the model ˆc which comprises prediction followed by bucketing. 個人バイアスの検出と不公平スコーリング 予測とバケットによる予測を含むモデルを考えてみましょう。 0.65
To determine whether the sample (xi, di), where di is the sensitive attributes and xi are the non-sensitive attributes, has individual bias associated with it, we perturb the sensitive attribute di to ˇdi. サンプル (xi, di) が感度属性であり、xi が非感度属性であるかどうかを判断するためには、個々のバイアスがそれと関連付けられており、感度属性 di を .di に摂動する。 0.68
If ˆc(xi, di) is different from ˆc(xi, ˇdi), we add this sample to individual biased sample collection. c(xi, di) が sc(xi, di) と異なる場合は、このサンプルを個々のバイアス付きサンプルコレクションに追加します。 0.78
Definition 3 For each sample (xi, di), we calculate Unfairness Quotient bxi,di. 定義3 各サンプル(xi, di)について、不公平なbxi,diを計算する。 0.72
Formally, Unfairness Quotient is defined as the difference between the actual model prediction and the prediction after perturbing.i.e 形式的には、不公平は実際のモデル予測と摂動後の予測との差として定義される。 0.68
bxi,di = abs(ˆc(xi, ˇdi) − ˆc(xi, di)) bxi,di = abs('c(xi, 'di) − 'c(xi, di) 0.85
(2) The Unfairness Quotient signifies the amount of bias associated with that sample, i.e. (2) 不公平度は、そのサンプルに関連するバイアスの量を意味する。 0.74
more the value, more the injustice and hence higher the priority during debiasing. より価値、より多くの不公平および従って偏見の間に優先順位が高い。 0.63
4.2. Overall Algorithm The priority-based bias mitigation algorithm is applied after the model prediction and band allotment for each sample. 4.2. 全体アルゴリズム 優先度に基づくバイアス軽減アルゴリズムは、各サンプルのモデル予測とバンド割り当て後に適用されます。 0.76
For each sample, in the decreasing order of Unfairness Quotient, we update the value of ˆc(xi, di) to ˆc(xi, ˇdi) until the value of DI is less than 1 − . 各サンプルについて、不等式が減少する順に、DIの値が 1 − y 未満になるまで、sc(xi, di) の値を sc(xi, sdi) に更新する。 0.62
The proposed algorithm is summarized in Algorithm 2. 提案アルゴリズムはアルゴリズム2にまとめられている。 0.84
Algorithm 2 Priority-based post-processing bias mitigation algorithm Input: Given model ˆc trained on training set {(xi, di, yi)} where アルゴリズム2 優先度に基づく後処理バイアス軽減アルゴリズム入力:訓練セット {(xi, di, yi)} で訓練された与えられたモデル 0.79
(di is sensitive attribute and Test Sample (X, D).) (diは敏感な属性およびテスト サンプル(X、D)です。 0.79
minority = 0 di = if di > 1 then minority = 0 di = if di > 1 ならば 0.90
E[ˆc(X,D)|d=minority] E[ˆc(X,d)|d=1⊕minority] E[\c(X,D)|d=minority] E[\c(X,d)|d=1\minority] 0.76
minority = 1 di = 1 di 少数派 = 1 di = 1 di 0.78
end if for all run-time test samples (xk, dk) do すべての実行時のテストサンプル(xk、dk)の場合終了します。 0.71
bxk,dk = abs(ˆc(xi, di = 0) − ˆc(xi, di = 1)) bxk,dk = abs('c(xi, di = 0) − 'c(xi, di = 1)) 0.86
Unfairness Quotient end for Sort test-sample (X, D) on the basis of bxk,dk in decreasing order for all (xk, dk) ∈ test − sample (X, D) do すべての (xk, dk) ∈ テスト − サンプル (X, D) の順序を減少させる bxk,dk に基づいて、ソートテストサンプル (X, D) の不公平性等価端。 0.87
(cid:46) compute (cid:46)計算 0.78
if bxk,dk > 0 & dk = minority then bxk,dk > 0 & dk = 少数派であれば 0.88
ˆc(xk, dk) = ˆc(xk, dk = 1 ⊕ minority) di = tc(xk, dk) = tc(xk, dk = 1 t minority) di = 0.74
E[ˆc(X,D)|d=minority] E[ˆc(X,d)|d=1⊕minority] E[\c(X,D)|d=minority] E[\c(X,d)|d=1\minority] 0.76
end if end for 5. 終われば 終止符 5. 0.70
EMPIRICAL RESULTS EMPIRICAL RESULTS 0.85
Fig. 1. Variation of Disparate Impact value, with the protected attribute as Age in the Tariff dataset, as the class label of individual samples is changed (the individual samples are debiased) prioritybased. フィギュア。 1. 関税データセットにおける保護属性を年齢とする異種衝撃値の変動は、個々のサンプルのクラスラベルを変更する(個々のサンプルはデバイアス)優先順位に基づいて変更される。 0.70
The debiasing process stops once the purple threshold line of 0.9 is reached. 脱バイアス過程は、0.9の紫のしきい値線に達すると停止する。 0.68
5.1. Comparison with the baseline approach We compared our priority-based debiasing approach with the baseline method in [2]. 5.1. ベースラインアプローチとの比較 優先度に基づくデバイアス手法とベースライン手法を比較した[2]。 0.75
In our case, daily in the post-processing stage, the model assigns tariff to each individual. 我々の場合、毎日、後処理の段階で、モデルは各個人に関税を割り当てます。 0.55
We start by calculating the initial Disparate Impact which is a measure of group fairness discussed in Section 2.1 and if it comes out to be less than 0.9 we uplift its value towards 0.9, if achievable by debiasing the sample with individual bias. まず、第2.1節で議論されているグループフェアネスの尺度である初期異質な影響を計算し、0.9未満になると、個々のバイアスでサンプルを偏りなくすることで達成可能な場合、その値を0.9に引き上げる。 0.71
Due to the efficiency in selecting the individual bias point i.e in decreasing order of Unfairness Quotient rather than randomly in [2], we found out that our approach takes less time as well as a lesser number of class label changes takes place compared to the existing algorithm. ランダムに [2] で不公平な順序を減少させるような個々のバイアス点を選択する効率のため、我々の手法は既存のアルゴリズムと比較して少ない時間と少ないクラスラベル変化が起こることが判明した。 0.73
Due to the fewer number of changes in class label, our algorithm kind of reduces the unescapable bias-accuracy tradeoff. クラスラベルの変更が少ないため、我々のアルゴリズムは避けられないバイアス精度のトレードオフを減らすことができる。 0.69
Figure 2 shows the comparison plot for both the algorithm with the protected attribute as Gender. 図2は、保護属性を性別とするアルゴリズムの比較プロットを示しています。 0.83
We evaluated our proposed algorithm on the subset of the CER ISSDA dataset described in subsection 3.1 for Jan 2010. 提案アルゴリズムは2010年1月3.1節に記載されたCER ISSDAデータセットのサブセットに基づいて評価した。 0.70
We started by training an Adaboost + SVR model on the first 20 days sample to predict the power consumption by the individual followed まず、最初の20日間のサンプルでAdaboost + SVRモデルをトレーニングし、それに続く個人による消費電力を予測する。 0.80
5.2. Validation of the proposed algorithm We extended our analysis to see how our algorithm performs on other publicly available datasets with multi-class numerical labels. 5.2. 提案アルゴリズムの検証により,マルチクラス数値ラベルを持つ他の公開データセット上でのアルゴリズムの動作を検証できるように解析を拡張した。 0.72
For the その為 0.49
英語(論文から抽出)日本語訳スコア
validation purpose, we run the algorithm on Sentencing dataset [14], which has Gender as a protected attribute. バリデーションの目的は,Gender を保護属性とする Sentencing データセット [14] 上でアルゴリズムを実行することだ。 0.78
On studying the dataset, we found out the charge imposed on Male was much higher than Female leading to some unfairness towards Male. 調査の結果,男性に対する課金は女性よりもはるかに高く,男性に対する不公平性が認められた。 0.65
Using our proposed algorithm, we were able to remove this unfairness by changing 784 class labels as compared to the 1163 class labels in the case of baseline. 提案アルゴリズムを用いて,ベースラインの場合の1163クラスラベルと比較して,744クラスラベルを変更することで,この不公平性を除去することができた。 0.73
Also, the time taken by the debiasing process using the priority-based approach was 125s whereas using the baseline randomized approach was 190s on average. また, 優先順位に基づくアプローチによる偏りの低減に要する時間は125秒, ベースラインランダム化手法は平均190秒であった。 0.78
Figure 4 showcases this analysis. 図4はこの分析を示します。 0.76
Fig. 4. Variation of Disparate Impact value, with the protected attribute as Gender in the Sentencing dataset, as the class label of individual samples is changed (the individual samples are debiased). フィギュア。 4. 個々のサンプルのクラスラベルを変更する(個々のサンプルがデバイアスされる)ため、送信データセットの性別として保護属性を持つ異種インパクト値の変動。 0.70
The orange line shows the variation according to the prioritybased algorithm. オレンジ線は優先順位に基づくアルゴリズムに従って変動を示す。 0.82
The blue line shows the variation according to the baseline-randomized approach. 青い線はベースラインランダム化アプローチに従って変化を示す。 0.79
The number of samples whose labels need to change to achieve fairness is less in our priority-based approach. 公平性を達成するためにラベルを変更する必要があるサンプルの数は、優先順位に基づくアプローチよりも少ないのです。 0.61
6. CONCLUSION Algorithmic fairness has become a compulsory step to be taken into consideration when building and deploying machine learning models. 6. 結論 機械学習モデルの構築とデプロイにおいて、アルゴリズム的公平性は考慮すべき必須のステップとなっている。
訳抜け防止モード: 6. 結論 アルゴリズムの公平さは 強制的なステップとなり 機械学習モデルの構築とデプロイ時に考慮される。
0.73
Bias-mitigation algorithms that address the critical and important notion of fairness are important. 公平性の重要かつ重要な概念に対処するバイアス緩和アルゴリズムは重要である。 0.69
Accuracy and Bias are always in a trade-off. 正確さとバイアスは常にトレードオフです。 0.75
This creates a limit on the number of individual samples to be debiased withholding the accuracy. これにより、精度を保ちながら、個々のサンプルの数に制限が生じます。 0.77
In this constraint individual debiasing process, past randomization-based debiasing approach fails to give a validity on whether individual samples facing maximum unfairness have been taken into consideration for debiasing or not. この制約下では、過去のランダム化に基づくデバイアス化アプローチは、最大不公平に直面する個々のサンプルがデバイアスに考慮されているかどうかの妥当性を示さない。 0.58
In this paper, we have developed a novel prioritybased post-processing algorithm that ensures priority-based fairness to the individual facing maximum unfairness. 本稿では,最大不公平に直面している個人に対して優先度に基づく公平性を保証する,優先度に基づくポストプロセッシングアルゴリズムを開発した。 0.64
The remediation process work to improve both individual and group fairness metrics. 修復プロセスは個人とグループの両方の公平度指標を改善するために働きます。 0.62
In this shifting paradigms in the model development process, there is limited accessibility for deployers to the internals of trained models. モデル開発プロセスにおけるこのシフトパラダイムでは、トレーニングされたモデルの内部へのデプロイのアクセシビリティが制限されている。 0.72
Therefore, post-processing algorithms that treat models as complete black-box are necessary. したがって、モデルを完全にブラックボックスとして扱う後処理アルゴリズムが必要です。 0.64
In comparison to previous work, our proposed algorithm is faster and needs changing labels of a lesser number of samples to achieve fairness. 従来の研究と比較して,提案アルゴリズムは高速であり,より少ないサンプル数のラベルを変更して公平性を得る必要がある。 0.72
We have validated our method on multiple real-world datasets. 我々は、複数の実世界のデータセットでこのメソッドを検証する。 0.55
Fig. 2. Variation of Disparate Impact value, with the protected attribute as Gender in the Tariff dataset for multiple dates, as the class label of individual samples is changed (the individual samples are debiased). フィギュア。 2. 個々のサンプルのクラスラベルを変更する(個々のサンプルはデバイアスされる)ため、異なるインパクト値、保護された属性をTariffデータセットのGenderとして複数の日付で変更する。 0.69
The orange line shows the variation according to the priority-based algorithm. オレンジ線は優先順位に基づくアルゴリズムに従って変動を示す。 0.82
The blue line shows the variation according to the baseline-randomized approach. 青い線はベースラインランダム化アプローチに従って変化を示す。 0.79
The number of samples whose labels need to change to achieve fairness is less in our priority-based approach. 公平性を達成するためにラベルを変更する必要があるサンプルの数は、優先順位に基づくアプローチよりも少ないのです。 0.61
The debiasing process stops once the purple threshold line of 0.9 is reached. 脱バイアス過程は、0.9の紫のしきい値線に達すると停止する。 0.68
Fig. 3. Time taken by the proposed and the baseline approach in the Tariff dataset with the protected attribute as Gender over multiple dates. フィギュア。 3. 提案した時間とTariffデータセットのベースラインアプローチは、複数の日付で保護された属性をGenderとして扱う。 0.67
From all the bar plots, time taken is priority-based approach is lesser. すべてのバープロットから、優先ベースのアプローチがより少ない時間を取る。 0.66
英語(論文から抽出)日本語訳スコア
[14] US DATA.GOV, [14] US Data.GOV, 0.86
“Sentencing Dataset,” “Sentencing Dataset” 0.65
https: //catalog.data.gov/d ataset/sentencing. https: catalog.data.gov/dat aset/sentencing 0.57
[15] Ireland Commission アイルランド委員会[15] 0.83
for Energy Regulation エネルギー規制のために 0.70
“Data lation,” commissionforenergyr egulationcer/. “Data lation, commissionforenergyr egulationcer/。 0.57
(CER), Energy Reguhttp://www.ucd.i e/issda/data/ (CER), Energy Regu://www.ucd.ie/is sda/data/ 0.53
from the Commission for 委員会から ですから 0.61
[16] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay, “Scikit-learn: Machine learning in Python,” Journal of Machine Learning Research, vol. F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, E. Duchesnay, “Scikit-learn: Machine Learning in Python”, Journal of Machine Learning Research, vol. 0.98
12, pp. 2825–2830, 2011. 12、p。 2825–2830, 2011. 0.75
[17] Matt J Kusner, Joshua Loftus, Chris Russell, and Ricardo Silva, “Counterfactual fairness,” in Advances in Neural Information Processing Systems, 2017, pp. 17] matt j kusner, joshua loftus, chris russell, ricardo silva, “counterfactual fairness” in advances in neural information processing systems, pp. 2017年4月1日閲覧。 0.75
4066–4076. 4066–4076. 0.71
7. REFERENCES [1] Julia Dressel and Hany Farid, “The accuracy, fairness, and limits of predicting recidivism,” Science advances, vol. 7. 参考 ジュリア・ドレッセルとハニー・ファリドは、「レシディズムの予測の正確さ、公平性、限界」について、科学は進歩しています。 0.62
4, no. 1, pp. 4、いいえ。 1、p。 0.68
eaao5580, 2018. eaao5580、2018。 0.75
[2] P. K. Lohia, K. Natesan Ramamurthy, M. Bhide, D. Saha, K. R. Varshney, and R. Puri, “Bias mitigation post-processing for individual and group fairness,” in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. [2] P. K. Lohia, K. Natesan Ramamurthy, M. Bhide, D. Saha, K. R. Varshney, R. Puri, “Bias mitigation post-processing for individual and group Fairness” in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp。 0.92
2847–2851. 2847–2851. 0.71
[3] Roberto Maestre, Juan Duque, Alberto Rubio, and Juan Ar´evalo, “Reinforcement learning for fair dynamic pricing,” in Proceedings of SAI Intelligent Systems Conference. 3] Roberto Maestre、Juan Duque、Alberto Rubio、Juan Ar ́evaloは、SAI Intelligent Systems ConferenceのProceedingsで「公正なダイナミック価格のための強化学習」と題しています。 0.78
Springer, 2018, pp. スプリンガー、2018年、p。 0.40
120–135. [4] Yufei Han, Xiaolan Sha, Etta Grover-Silva, and Pietro Michiardi, “On the impact of socio-economic factors on power load forecasting,” in 2014 IEEE International Conference on Big Data (Big Data). 120–135. 2014 年 IEEE International Conference on Big Data (Big Data) では, [4] Yufei Han, Xiaolan Sha, Etta Grover-Silva, Pietro Michiardi 両氏が "電力負荷予測に対する社会経済的要因の影響について" と評している。 0.74
IEEE, 2014, pp. IEEE、2014 pp。 0.54
742–747. [5] K-R M¨uller, Alexander J Smola, Gunnar R¨atsch, Bernhard Sch¨olkopf, Jens Kohlmorgen, and Vladimir Vapnik, “Predicting time series with support vector machines,” in International Conference on Artificial Neural Networks. 742–747. 5] k-r m シュルラー、アレクサンダー・j・スモラ、グンナー・r・ショアチュ、ベルンハルト・シュ・ショルコップ、イェンス・コールモーゲン、ウラジーミル・ヴァプニク、”predicting time series with support vector machines” は、人工ニューラルネットワークに関する国際カンファレンスで発表された。
訳抜け防止モード: 742–747. [5 ] K - R M suller, Alexander J Smola, ガンナー・R・シャッチ、ベルンハルト・シュ・ショルコプフ、イェンス・コールモーゲン、ウラジーミル・ヴァプニク。 人工ニューラルネットワーク国際会議における「サポートベクターマシンによる予測時系列」について
0.67
Springer, 1997, pp. スプリンガー、1997年、p。 0.60
999–1004. [6] Sujan Chandra Sarker, Md Arif, Abinash Chakma, Uttam Kumer Roy, and Raqibul Mostafa, “Smart meter assisted electric energy management schemes for power distribution and residential customer usage,” in 2014 International Conference on Electrical Engineering and Information & Communication Technology. 999–1004. 6]Sujan Chandra Sarker, Md Arif, Abinash Chakma, Uttam Kumer Roy, Raqibul Mostafa, “Smart meter assisted electric energy management schemes for power distribution and residence customer usage” in 2014 International Conference on Electric Engineering and Information & Communication Technology. 2014年3月1日閲覧。 0.79
IEEE, 2014, pp. IEEE、2014 pp。 0.54
1–6. [7] Michael Feldman, Sorelle A Friedler, John Moeller, Carlos Scheidegger, and Suresh Venkatasubramanian, “Certifying and removing disparate impact,” in Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 1–6. 第21回ACM SIGKDD International Conference on Knowledge Discovery and Data Miningの進行において、Michael Feldman、Sorelle A Friedler、John Moeller、Carlos Scheidegger、Suresh Venkatasubramanianは「異種の影響を証明し、除去する」と述べている。 0.76
ACM, 2015, pp. acm、2015年、p。 0.55
259–268. [8] Richard Berk, Hoda Heidari, Shahin Jabbari, Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, and Aaron Roth, “A convex framework for fair regression,” arXiv preprint arXiv:1706.02409, 2017. 259–268. 8] Richard Berk, Hoda Heidari, Shahin Jabbari, Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, “A convex framework for Fair Regression” arXiv preprint arXiv:1706.02409, 2017 0.77
[9] Faisal Kamiran, Asim Karim, and Xiangliang Zhang, “Decision theory for discrimination-aware classification,” in Proc. 9]faisal kamiran, asim karim, xiangliang zhang, “decision theory for discrimination-aware classification” in proc。 0.64
IEEE Int. Conf. IEEE Int。 Conf 0.65
Data Min., Brussels, Belgium, Dec. 2012, pp. data min., brussels, belgium, 2012 年 12 月 pp. 0.78
924–929. [10] Moritz Hardt, Eric Price, and Nathan Srebro, “Equality of opportunity in supervised learning,” in Adv. 924–929. 10] Moritz Hardt、Eric Price、Nathan SrebroはAdvで「教師付き学習における機会の平等」と述べています。 0.75
Neur. Inf. Process. Neur インフ。 プロセス。 0.55
Syst. 29, Barcelona, Spain, Dec. 2016, pp. シスト。 29 バルセロナ,スペイン,2016年12月,p。 0.67
3315–3323. 3315–3323. 0.71
[11] Geoff Pleiss, Manish Raghavan, Felix Wu, Jon Kleinberg, and Kilian Q. Weinberger, “On fairness and calibration,” in Adv. 11] Geoff Pleiss、Manish Raghavan、Felix Wu、Jon Kleinberg、Kilian Q. Weinberger、Advの「公平性とキャリブレーションについて」。
訳抜け防止モード: 11 ] Geoff Pleiss, Manish Raghavan, Felix Wu, Jon Kleinberg、Kilian Q. Weinbergerは「公平性とキャリブレーションについて」と述べています。 Advで。
0.80
Neur. Inf. Process. Neur インフ。 プロセス。 0.55
Syst. 30, Long Beach, USA, Dec. 2017, pp. シスト。 30 long beach, usa, pp. 2017年12月1日閲覧。 0.67
5680–5689. 5680–5689. 0.71
[12] Ran Canetti, Aloni Cohen, Nishanth Dikkala, Govind Ramnarayan, Sarah Scheffler, and Adam Smith, “From soft classifiers to hard decisions: How fair can we be?,” arXiv:1810.02003, Oct. 2018. 12] Ran Canetti、Aloni Cohen、Nishanth Dikkala、Govind Ramnarayan、Sarah Scheffler、Adam Smithは、「ソフトな分類器からハードな決定へ:どうすれば良いのか?
訳抜け防止モード: [12 ]Ran Canetti,Aloni Cohen,Nishanth Dikkala, Govind Ramnarayan氏、Sarah Scheffler氏、Adam Smith氏は次のように述べている。 arXiv:1810.02003、2018年10月。
0.67
[13] Aniya Aggarwal, Pranay Lohia, Seema Nagar, Kuntal Dey, and Diptikalyan Saha, “Black box fairness testing of machine learning models,” in Proceedings of the 2019 27th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering. 13] Aniya Aggarwal, Pranay Lohia, Seema Nagar, Kuntal Dey, Diptikalyan Saha, “Black Box Fairness Testing of Machine Learning Model” は、2019年の第27回欧州ソフトウェアエンジニアリング会議とソフトウェアエンジニアリングの基礎に関するシンポジウムの共同会議の開催を予定しています。 0.87
ACM, 2019, pp. acm、2019年、p。 0.67
625–635. 625–635. 0.71
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。