論文の概要、ライセンス

# (参考訳) 公平な正規化フロー [全文訳有]

Fair Normalizing Flows ( http://arxiv.org/abs/2106.05937v1 )

ライセンス: CC BY 4.0
Mislav Balunovi\'c, Anian Ruoss, Martin Vechev(参考訳) 公正表現学習は、センシティブなデータを符号化することで下流予測子の公平性を保証する魅力的なアプローチである。 残念なことに、近年の研究では、強い敵の予測器は、これらの表現から感度特性を回復することで、いまだに不公平であることを示した。 本研究では,FNF(Fair Normalizing Flows)という,学習表現に対する厳密な公正性を保証する新しい手法を提案する。 具体的には,感度群に対する確率密度を推定できる実用的な設定を考える。 鍵となる考え方は、異なる群の潜在表現間の統計的距離を最小化するために訓練された正規化フローとしてエンコーダをモデル化することである。 FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。 我々は,FNFが様々なグループフェアネスの概念と,解釈可能性や伝達学習などの魅力的な特性を,様々な課題のある実世界のデータセット上で実施する効果を実験的に実証した。

Fair representation learning is an attractive approach that promises fairness of downstream predictors by encoding sensitive data. Unfortunately, recent work has shown that strong adversarial predictors can still exhibit unfairness by recovering sensitive attributes from these representations. In this work, we present Fair Normalizing Flows (FNF), a new approach offering more rigorous fairness guarantees for learned representations. Specifically, we consider a practical setting where we can estimate the probability density for sensitive groups. The key idea is to model the encoder as a normalizing flow trained to minimize the statistical distance between the latent representations of different groups. The main advantage of FNF is that its exact likelihood computation allows us to obtain guarantees on the maximum unfairness of any potentially adversarial downstream predictor. We experimentally demonstrate the effectiveness of FNF in enforcing various group fairness notions, as well as other attractive properties such as interpretability and transfer learning, on a variety of challenging real-world datasets.
公開日: Thu, 10 Jun 2021 17:35:59 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] G L . 0 1 ] G L。 0.81
s c [ 1 v 7 3 9 5 0 sc [ 1 v 7 3 9 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Fair Normalizing Flows Mislav Balunovi´c, Anian Ruoss, Martin Vechev 公平な正規化フロー Mislav Balunovi ́c, Anian Ruoss, Martin Vechev 0.79
Department of Computer Science ETH Zurich 計算機科学専攻 ETH Zurich 0.73
{mislav.balunovic, anian.ruoss, martin.vechev}@inf.ethz.ch anian.ruoss, martin.vechev}@inf.ethz.ch 0.63
Abstract Fair representation learning is an attractive approach that promises fairness of downstream predictors by encoding sensitive data. 概要 公正表現学習は、センシティブなデータを符号化することで下流予測子の公平性を保証する魅力的なアプローチである。
訳抜け防止モード: 概要 公平な表現学習は魅力的なアプローチです 機密データエンコーディングによる下流予測器の公平性を約束する。
0.54
Unfortunately, recent work has shown that strong adversarial predictors can still exhibit unfairness by recovering sensitive attributes from these representations. 残念なことに、近年の研究では、強い敵の予測器は、これらの表現から感度特性を回復することで、いまだに不公平であることを示した。 0.38
In this work, we present Fair Normalizing Flows (FNF), a new approach offering more rigorous fairness guarantees for learned representations. 本研究では,FNF(Fair Normalizing Flows)という,学習表現に対する厳密な公正性を保証する新しい手法を提案する。 0.73
Specifically, we consider a practical setting where we can estimate the probability density for sensitive groups. 具体的には,感度群に対する確率密度を推定できる実用的な設定を考える。 0.82
The key idea is to model the encoder as a normalizing flow trained to minimize the statistical distance between the latent representations of different groups. 鍵となる考え方は、異なる群の潜在表現間の統計的距離を最小化するために訓練された正規化フローとしてエンコーダをモデル化することである。
訳抜け防止モード: 鍵となるアイデアは、エンコーダを正規化フローとしてモデル化することだ 異なる群の潜在表現間の統計的距離を最小化する。
0.69
The main advantage of FNF is that its exact likelihood computation allows us to obtain guarantees on the maximum unfairness of any potentially adversarial downstream predictor. FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。 0.72
We experimentally demonstrate the effectiveness of FNF in enforcing various group fairness notions, as well as other attractive properties such as interpretability and transfer learning, on a variety of challenging real-world datasets. 我々は,FNFが様々なグループフェアネスの概念と,解釈可能性や伝達学習などの魅力的な特性を,様々な課題のある実世界のデータセット上で実施する効果を実験的に実証した。 0.68
1 Introduction As machine learning is being increasingly used in scenarios that can negatively affect humans [1–3], fair representation learning has become one of the most promising ways to encode data into new, unbiased representations with high utility. はじめに 機械学習は人間 [1-3] に悪影響を及ぼすシナリオでますます使われているため、公正表現学習は、高い実用性を持つ新しい偏りのない表現にデータをエンコードする最も有望な方法の1つになっている。 0.65
Concretely, the goal is to ensure that representations have two properties: (i) they are informative for various prediction tasks of interest, (ii) sensitive attributes of the original data (e g , race) cannot be recovered from the representations. 具体的には、表現が2つの特性を持つことを保証する。 (i) 興味のある様々な予測タスクに対して情報的であり、 (ii) 元のデータ(例えば、レース)の機密属性は表現から回収できない。 0.74
Perhaps the most prominent approach for learning fair representations is adversarial training [4–11] which jointly trains an encoder trying to transform data into a fair representation with an adversary attempting to recover sensitive attributes from the representation. 公正な表現を学習するための最も顕著なアプローチは、データを公正な表現に変換するエンコーダと、その表現からセンシティブな属性を回復しようとする相手との合同トレーニング[4–11]である。 0.76
However, several recent lines of work [11–16] have noticed that these approaches do not produce truly fair representations: stronger adversaries can in fact recover sensitive attributes. しかし、最近のいくつかの作業 [11–16] では、これらのアプローチが真に公平な表現を生み出していないことに気付いている。 0.57
Clearly, this could allow malicious or ignorant users to use the provided representations to discriminate. これは明らかに、悪意のある、あるいは無知なユーザーが提供された表現を使って差別することができる。 0.54
This problem emerges at a time when regulators are crafting rules [17–21] on the fair usage of AI, stating that any entity that cannot guarantee nondiscrimination would be held accountable for the produced data. この問題は、規制当局がAIの公正使用に関する規則を[17-21]作成している時に発生し、非差別を保証できないエンティティは、生成されたデータに対して説明責任を負うことになる。 0.62
This raises the question: Can we learn representations which provably guarantee that sensitive attributes cannot be recovered? センシティブな属性が復元できないことを確実に保証する表現を学べますか? 0.57
This work To address the above challenge, we propose Fair Normalizing Flows (FNF), a new method for learning fair representations with guarantees. この課題に対処するために,保証付き公正表現を学習する新しい手法であるFNFを提案する。
訳抜け防止モード: 本稿では,上記の課題に対処するため,公平な正規化フロー(fnf)を提案する。 保証付き公平表現の学習法。
0.69
In contrast to other approaches where encoders are standard feed-forward neural networks, we instead model the encoder as a normalizing flow [22]. エンコーダが標準フィードフォワードニューラルネットワークである他のアプローチとは対照的に、エンコーダを正規化フローとしてモデル化する[22]。 0.78
Fig 1 provides a high-level overview of FNF. 図1はFNFの高レベルな概要を提供する。 0.67
We assume that the original input data x comes from two probability distributions p0 and p1, which can be either known or estimated, representing groups with sensitive attribute a = 0 and a = 1, respectively. 元の入力データ x は 2 つの確率分布 p0 と p1 から来ていると仮定し、それぞれ感度の高い属性 a = 0 と a = 1 を持つ群を表す。 0.74
As shown on the left in Fig. 図の左側に示すように。 0.73
1, using raw inputs x allows us to train high-utility classifiers h, but at the same time does not protect against the existence of a malicious adversary g that can predict a sensitive attribute a from the features in x. 生の入力 x を用いて高ユーティリティ分類器 h を訓練することができるが、同時に x の特徴から機密属性 a を予測できる悪意のある敵 g の存在を防げない。 0.57
Our architecture consists of two flow-based encoders f0 and f1, where flow fa 私たちのアーキテクチャはフローベースの2つのエンコーダf0とf1で構成されています。 0.56
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
z0 = f0(x) z1 = f1(x) z0 = f0(x) z1 = f1(x) 0.90
pZ1 (z) p1(x) pZ1 (z) p1(x) 0.98
FNF pZ0 (z) FNF pZ0 (z) 0.92
x ∃h : E[y = h(x)] ≈ 1 x h : e[y = h(x)] は 1 である。 0.85
∃g : E[a = g(x)] ≈ 1 g : e[a = g(x)] は 1 である。 0.83
x1 = f −1 x0 = f −1 x1 = f −1 x0 = f −1 0.81
1 (z) 0 (z) 1 (z) 0 (z) 0.85
z ∼ pZa pZa (複数形 pZas) 0.40
∃h : E[y = h(z)] ≈ 1 h : e[y = h(z)] は 1 である。 0.83
∀g : E[a = g(z)] ≤ 1+∆ yg : E[a = g(z)] ≤ 1+ である。 0.85
2 ≈ 1 2 p0(x) 2 ≈ 1 2 p0(x) 0.89
x ∼ pa x は pa である。 0.56
Figure 1: Overview of Fair Normalizing Flows (FNF). 図1: 公正正規化フロー(FNF)の概要 0.71
There are two encoders, f0 and f1, that transform the two input distributions p0 and p1 into latent distributions pZ0 and pZ1 with a small statistical distance ∆ ≈ 0. 2つのエンコーダ f0 と f1 があり、この2つの入力分布 p0 と p1 を、小さな統計的距離 = 0 の潜在分布 pZ0 と pZ1 に変換する。 0.80
Without FNF, a strong adversary g can easily recover sensitive attribute a from the original input x, but once inputs are passed through FNF, we are guaranteed that any adversary that tries to guess sensitive attributes from latent z can not be significantly better than random chance. FNFがなければ、強い逆 g は元の入力 x から感度属性 a を復元し易いが、入力が FNF を通過すると、潜時 z から感度属性を推測しようとする敵は、ランダムな確率よりも著しくは良くないことが保証される。 0.68
At the same time, we can ensure that any benevolent user h maintains high utility. 同時に、すべての好意的なユーザhが高いユーティリティを維持することを保証できます。 0.62
transforms probability distribution pa(x) into pZa (z) by mapping x into z = fa(x). 確率分布 pa(x) を pZa(z) に変換し、x を z = fa(x) に変換する。 0.84
The goal of the training procedure is to minimize the distance ∆ between the resulting distributions pZ0(z) and pZ1 (z) so that an adversary cannot distinguish between them. トレーニング手順の目標は、結果の分布 pz0(z) と pz1(z) の間の距離 s を最小化し、敵が両者を区別できないようにすることである。 0.78
Intuitively, after training our encoder, each latent representation z can be inverted into original inputs x0 = f −1 1 (z) that have similar probability w.r.t. 直感的には、エンコーダを訓練した後、各潜在表現 z は、同様の確率 w.r.t を持つ元の入力 x0 = f −1 1 (z) に逆転することができる。 0.62
p0 and p1, meaning that even the optimal adversary cannot distinguish which of them actually produced latent z. Crucially, as normalizing flows enable us to compute the exact likelihood in the latent space, we can upper bound the accuracy of any adversary with 1+∆ 2 . p0 と p1 は、最適の逆数でさえ、実際に生成した逆数 z を区別できないことを意味する。 致命的に、正規化フローにより、潜在空間の正確な精度を計算できるので、任意の逆数の精度を 1 + 2 で上界にすることができる。
訳抜け防止モード: p0 と p1 は、最適の敵でさえ、それらのうちどれが実際に潜在する z を区別できないことを意味する。 正規化の流れによって 潜伏空間の正確な確率を計算できます 任意の敵の精度を 1 + 2 で上界できる。
0.71
Furthermore, the distance ∆ is a tight upper bound [5] on common fairness notions such as demographic parity [23] and equalized odds [24]. さらに、距離 s は、人口差パリティ [23] や等化オッズ [24] のような共通のフェアネス概念上の強固な上界 [5] である。 0.76
As shown on the right in Fig 1, we can still train high-utility classifiers h using our representations, but now we can actually provably guarantee that no adversary g can recover sensitive attributes better than chance. 図1の右に示すように、我々は依然として表現を使って高能率分類器hを訓練することができるが、現在では、敵 g が偶然よりも敏感な属性を回復できないことを確実に保証できる。
訳抜け防止モード: 図1の右にあるように、表現を使ってハイユーティリティ分類器hをトレーニングできます。 しかし今我々は 確実に保証できる 敵のgが 偶然より 敏感な属性を回復できない
0.72
Finally, if we only have estimated distributions ˆp0 and ˆp1, we show that in practice we can bound adversaries on the true distribution. 最終的に、もし推定分布 s p0 と s p1 しか持たないならば、実際には真の分布上で敵対者を縛ることができることを示す。 0.60
0 (z) and x1 = f −1 0 (z) および x1 = f −1 0.97
We empirically demonstrate that FNF can substantially increase provable fairness without significantly sacrificing accuracy on several common datasets. 我々は、fnfがいくつかの一般的なデータセットの精度を著しく犠牲にすることなく、証明可能な公平性を大幅に向上できることを実証的に証明する。 0.37
Additionally, we show that the invertibility of FNF makes it more interpretable and enables algorithmic recourse, thus allowing us to examine which inputs from different groups get matched together and how to reverse a negative decision outcome. さらに、FNFの可逆性により、より解釈可能になり、アルゴリズムによる会話が可能となり、異なるグループからの入力が一致するか、負の決定結果を逆転するかを検証できることを示す。 0.71
Main contributions Our key contributions are: 主な貢献は次のとおりです。 0.68
• A novel fair representation learning method, called Fair Normalizing Flows (FNF), which can guarantee that sensitive attributes cannot be recovered from the learned representations. • 公正正規化フロー(FNF)と呼ばれる新しい公正表現学習手法は,学習した表現からセンシティブな属性を回収できないことを保証できる。 0.79
• Experimental evaluation demonstrating that FNF can provably remove sensitive attributes from the representations, while keeping accuracy for the prediction task sufficiently high. • FNFは,予測タスクの精度を十分に高く保ちながら,表現から感度特性を確実に除去できることを示す実験評価を行った。 0.76
• Extensive investigation of FNF’s compatibility with different priors, interpretability of learned representations and applications of FNF to transfer learning and algorithmic recourse. (<i>FNFの先行性,学習表現の解釈可能性,およびFNFの学習の伝達とアルゴリズム的会話への応用)。 0.69
2 Related Work In this work, we focus on group fairness, which requires certain classification statistics to be equal across different groups of the population. 2 関連作業 本研究は,集団の公平性に着目し,集団の異なるグループ間で一定の分類統計値が等しいことを要求する。 0.80
Concretely, we consider demographic parity [23], equalized odds [24], and equality of opportunity [24], which are widely studied in the literature [4, 5, 25, 26]. 具体的には,[4,5,25,26]において広く研究されている,人口格差[23],等化オッズ[24],機会平等[24]について考察する。 0.77
Algorithms enforcing such fairness notions target various stages of the machine learning pipeline: Pre-processing methods transform sensitive user data into an unbiased representation [25, 26], in-processing methods modify training by incorporating fairness constraints [27, 28], 事前処理メソッド センシティブなユーザデータを偏りのない表現 [25,26] に変換する前処理メソッド フェアネス制約 [27,28] を組み込んだトレーニング変更 [27,28] 。
訳抜け防止モード: このような公平性の概念を強制するアルゴリズムは、機械学習パイプラインの様々な段階をターゲットにしている。 26 ], in-処理手法は,公正性制約を組み込むことでトレーニングを変更する[27,28]。
0.73
2 2 0.85
英語(論文から抽出)日本語訳スコア
and post-processing methods change the predictions of a pre-trained classifier [24]. そして、後処理手法は、事前訓練された分類器[24]の予測を変更する。 0.54
Here, we consider fair representation learning [25], which computes data representations that hide sensitive information, such as group membership, while maintaining utility for downstream tasks and allowing transfer learning. 本稿では,グループメンバシップなどのセンシティブな情報を隠蔽するデータ表現を計算し,下流タスクのユーティリティを維持し,伝達学習を可能にするフェア表現学習[25]について考察する。 0.75
Fair representation learning Fair representations can be learned with a variety of different approaches, including variational autoencoders [12, 29], adversarial training [4–11], and disentanglement [30, 31]. フェア表現学習フェア表現は、変分オートエンコーダ[12, 29]、敵対的トレーニング[4–11]、乱視[30, 31]など、さまざまなアプローチで学習することができる。
訳抜け防止モード: 公平な表現学習 公正な表現は、さまざまなアプローチで学ぶことができる。 変分オートエンコーダ[12,29,29],逆行訓練[4,11]を含む。 乱れ[30 , 31 ].
0.78
Adversarial training methods minimize a lower bound on demographic parity, namely an adversary’s accuracy for predicting the sensitive attributes from the latent representation. 敵対的トレーニング手法は、人口密度の低い境界、すなわち潜在表現からセンシティブな属性を予測するための敵の精度を最小化する。 0.60
However, since these methods only empirically evaluate worst-case unfairness, adversaries that are not considered during training can still recover sensitive attributes from the learned representations [11– 16]. しかし、これらの手法は、最悪の場合の不公平さを経験的に評価するだけであるため、訓練中に考慮されない敵は、[11–16] 学習した表現から繊細な属性を回復することができる。 0.50
These findings illustrate the necessity of learning representations with provable guarantees on the maximum recovery of sensitive information regardless of the adversary, which is precisely the goal of our work. これらの結果から,本研究の目標である敵によらず,センシティブな情報の最大回復を保証した学習表現の必要性が示唆された。 0.71
Prior work [11, 15] makes first steps in this direction: Gupta et al [15] upper bound a monotonically increasing function of demographic parity with the mutual information between the latent representation and sensitive attributes. Gupta et al [15]上層部は、潜在表現とセンシティブな属性の間の相互情報と、一律に増大する人口比率の関数を束縛する。 0.45
However, the monotonic nature of this bound does not allow for computing actual guarantees on the reconstruction power of the optimal adversary. しかし、この境界の単調性は、最適な敵の復元能力に関する実際の保証を計算できない。 0.51
While Feng et al [11] minimize the Wasserstein distance between the latent distributions across different protected groups, it only provides an upper bound on the performance of any Lipschitz continuous adversary. feng et al [11] は、異なる保護群にまたがる潜在分布の間のワッサーシュタイン距離を最小化しているが、リプシッツ連続逆境の性能に上限を与えるだけである。 0.76
However, as we will show, the optimal adversary is in general discontinuous. しかし、我々が示すように、最適な敵は一般に不連続である。 0.62
Provable fairness guarantees The ongoing development of guidelines on the fair usage of AI [17– 21] has spurred interest in provably fair algorithms. 確率的公正保証 AIの公正使用に関するガイドライン(17-21)の継続的な開発は、証明可能な公正なアルゴリズムへの関心を喚起している。 0.59
Unlike this work, the majority of such works [26, 32–34] focus on individual fairness. この作品とは異なり、これらの作品のほとんど[26, 32–34]は個々人の公平性に焦点を合わせている。 0.53
Individual fairness is also tightly linked to differential privacy [23, 35], which guarantees that an attacker cannot infer whether a given individual was present in the dataset or not, but these models can still admit reconstruction of sensitive attributes by leveraging population-level correlations [36]. 個人の公平性は差分プライバシー [23, 35] とも密接に関連しており、攻撃者はデータセットに特定の個人が存在するかどうかを推測できないことを保証しているが、これらのモデルは人口レベルの相関を利用しても敏感な属性の再構築を許容できる [36]。 0.74
Group fairness certification methods [37–39] generally only focus on certification and, unlike our work, do not learn representations that are provably fair. グループフェアネス認定手法 [37–39] は一般的に認定のみに焦点を当てており、我々の仕事とは異なり、証明可能な公正な表現を学ばない。
訳抜け防止モード: グループフェアネス認定法[37-39]は一般的に認証のみに焦点を当てる 我々の作品とは異なり 明らかに公平な表現を 学ばない
0.75
3 Background We assume that the data (x, a) ∈ Rd × A comes from a probability distribution p, where x represents the features and a represents a sensitive attribute. 背景 x, a) ∈ rd × a は、x が特徴を表し、a が敏感な属性を表す確率分布 p に由来すると仮定する。
訳抜け防止モード: 背景 データ ( x, a ) ∈ Rd × A は確率分布 p に由来すると仮定する。 xは特徴を表し、aは繊細な属性を表します。
0.56
In this work, we focus on the case where the sensitive attribute is binary, meaning A = {0, 1}. 本研究では、感度属性がバイナリである場合、すなわち A = {0, 1} に焦点を当てる。 0.60
Given p, we can define the conditional probabilities as p0(x) = P (x|a = 0) and p1(x) = P (x|a = 1). p が与えられたとき、条件付き確率を p0(x) = p (x|a = 0) と p1(x) = p (x|a = 1) と定義できる。 0.82
We are interested in classifying each sample (x, a) to a label y ∈ {0, 1}, which may or may not be correlated with the sensitive attribute a. それぞれのサンプル (x, a) をラベル y ∈ {0, 1} に分類することに興味がある。
訳抜け防止モード: 各サンプル (x, a ) をラベル y ∈ { 0, に分類することに興味がある。 1 (複数形 1s) may または not は、敏感な属性a と関連付けられる。
0.76
Our goal is to build a classifier ˆy = h(x) which tries to predict y from the features x, while satisfying certain notions of fairness. 我々のゴールは、特徴 x から y を予測し、公正性の特定の概念を満たすような分類子 y = h(x) を構築することである。 0.73
Next, we present several definitions of fairness relevant for this work. 次に,本研究に関連する公平性の定義をいくつか提示する。 0.44
Fairness criteria A classifier h satisfies demographic parity if it assigns positive outcomes to both sensitive groups equally likely, i.e., P (h(x) = 1|a = 0) = P (h(x) = 1|a = 1). フェアネス基準 分類器 h が人口統計学的パリティを満たすのは、両機密群に正の結果を等しく割り当てる場合、すなわち p (h(x) = 1|a = 0) = p (h(x) = 1|a = 1) である。 0.76
In cases where demographic parity can not be satisfied, we are also interested in a metric called demographic parity distance, defined as | E[h(x)|a = 0] − E[h(x)|a = 1]|. 人口統計学的パリティが満足できない場合、人口統計学的パリティ距離(英語版)と呼ばれる指標にも興味があり、これは | e[h(x)|a = 0] − e[h(x)|a = 1]| と定義される。 0.67
A possible issue with demographic parity occurs if the base rates differ among the attributes, i.e., P (y = 1|a = 0) 6= P (y = 1|a = 1). P (y = 1|a = 0) 6 = P (y = 1|a = 1) である。
訳抜け防止モード: 基本レートが属性によって異なる場合、人口格差に関する可能性のある問題が発生する。 すなわち P ( y = 1|a = 0 ) 6 = P ( y = 1|a = 1 ) である。
0.72
In that case, even the ground truth label y does not satisfy demographic parity. この場合、基底真理ラベル y でさえ人口統計学的パリティを満たしていない。 0.63
To address this, Hardt et al [24] instead introduced equalized odds, which requires that P (h(x) = 1|y = y0, a = 0) = P (h(x) = 1|y = y0, a = 1) for y0 ∈ {0, 1}, assuming h(x) = 1 is the advantaged outcome. これを解決するために、Hardt et al [24] は代わりに等化奇数を導入し、p (h(x) = 1|y = y0, a = 0) = P (h(x) = 1|y = y0, a = 1) を y0 ∈ {0, 1} に対して、h(x) = 1 が有利な結果であると仮定する。 0.85
Instead of directly predicting y from x, Zemel et al [25] introduced the idea Fair representations of learning fair representations of data. x から y を直接予測する代わりに、Zemel ら[25] はデータの公正な表現を学習するフェア表現というアイデアを導入した。 0.69
The idea is that a data producer can preprocess the original data x and obtain a new representation z = f (x, a). その考え方は、データプロデューサが元のデータxを前処理し、新しい表現z = f (x, a)が得られるということである。 0.73
Then, any data consumer, who is using this data to solve a downstream task, can use z as an input to the classifier instead of the original data x. そして、このデータを使って下流のタスクを解決しているデータ消費者は、zを元のデータxの代わりに分類器への入力として使うことができる。
訳抜け防止モード: そしてどんなデータ消費者も このデータを使って下流の課題を解決し z は元のデータ x の代わりに分類器への入力として使うことができる。
0.86
Thus, if the data producer can ensure that data representation is fair (w.r.t. したがって、もしデータプロデューサがデータ表現が公平であることを保証できるなら(w.r.t)。 0.63
some notion of fairness), then all classifiers built on top of this representation will automatically inherit the fairness property. すると、この表現の上に構築されたすべての分類器は、自動的にfairnessプロパティを継承する。 0.72
Normalizing flows Flow-based generative models [22, 40–42] provide an attractive framework for transforming any probability distribution q into another distribution ¯q. フローを正規化するフローベース生成モデル [22, 40–42] は、任意の確率分布 q を別の分布に変換する魅力的なフレームワークを提供する。 0.71
Accordingly, they are 3 それゆえ 彼らは 3 0.84
英語(論文から抽出)日本語訳スコア
2 x 6 4 2 0 2x 6 4 2 0 0.83
2 4 6 6 4 2 2 4 6 6 4 2 0.85
0 x1 2 4 6 0x1。 2 4 6 0.80
Figure 2: Samples from our example distribution. 図2: サンプルを例示します。 0.67
The blue group (a = 0) is sampled from p0 and the orange group (a = 1) is sampled from p1. 青色群 (a = 0) はp0からサンプリングされ、オレンジ群 (a = 1) はp1からサンプリングされる。 0.78
Figure 3: Sensitive attribute recovery rates for adversarial training and fair normalizing flows (FNF) with 100 different random seeds. 図3:100種のランダム種子を用いた敵訓練および公正正規化フロー(fnf)に対する感度の高い属性回復率。 0.72
often used to estimate densities from data using the change of variables formula on a sequence of invertible transformations, so-called normalizing flows [22]. 可逆変換の列(いわゆる正規化フロー [22])上の変数式の変化を用いて、データから密度を推定するためにしばしば用いられる。 0.77
In this work, however, we mainly leverage the fact that flow models sample a latent variable z from a density ¯q(z) and apply an invertible function fθ, parametrized by θ, to obtain datapoint x = f −1 θ (z). しかし、本研究では、フローモデルが密度 q(z) から潜在変数 z をサンプリングし、θ でパラメータ化された可逆関数 fθ を適用してデータポイント x = f −1 θ (z) を得るという事実を主に活用する。 0.80
Given a density q(x), the exact log-likelihood is then obtained by applying the change of variables formula log q(x) = log ¯q(z) + log | det(dz/dx)|. 密度 q(x) が与えられると、変数公式 log q(x) = log sq(z) + log | det(dz/dx)| の変化を適用することにより、正確なlog-likelihood が得られる。 0.89
Thus, for fθ = f1 ◦ f2 ◦ . したがって、fθ = f1 である。 0.79
. . ◦ fK with r0 = x, fi(ri−1) = ri, and rK = z, we have . . r0 = x , fi(ri−1) = ri , rK = z の fK が成り立つ。
訳抜け防止モード: . . r0 = x, fi(ri−1 ) = ri, そして rK = z である。 私達には
0.87
log q(x) = log ¯q(z) + log q(x) = log >q(z) + 0.90
K Xi=1 log | det(dri/dri−1)|. K Xi=1 log | det(dri/dri−1)| 0.75
(1) A clever choice of transformations fi [22, 40–42] makes the computation of log-determinant tractable, resulting in efficient training and sampling. (1) 変換 fi [22, 40–42] の巧妙な選択は、対数決定的トラクタの計算を可能とし、効率的なトレーニングとサンプリングをもたらす。 0.78
Alternative generative models cannot compute the exact log-likelihood (e g , VAEs [43], GANs [44]) or have inefficient sampling (e g , autoregressive models). 代替生成モデルは、正確なログ類似度(例えば、VAE[43]、GAN[44])を計算できないし、非効率なサンプリング(例えば、自己回帰モデル)もできない。 0.79
4 Motivation In this section, we motivate our approach by highlighting some key issues with fair representation learning based on adversarial training. 4 動機 本稿では, 対人訓練に基づく公正表現学習における重要な課題を強調し, このアプローチを動機づける。 0.70
Consider a distribution of samples x = (x1, x2) ∈ R2 divided into two groups, shown as blue and orange in Fig 2. サンプル x = (x1, x2) ∈ R2 の分布を、図2の青とオレンジの2つの群に分ける。 0.85
The first group with a sensitive attribute a = 0 has a distribution (x1, x2) ∼ p0, where p0 is a mixture of two Gaussians N ([−3, 3], I) and N ([3, 3], I). 感度属性 a = 0 を持つ最初の群は分布 (x1, x2) > p0 であり、p0 は二つのガウス N ([−3, 3], I) と N ([3, 3], I) の混合である。 0.80
The second group with a sensitive attribute a = 1 has a distribution (x1, x2) ∼ p1, where p1 is a mixture of two Gaussians N ([−3, −3], I) and N ([3, −3], I). 感度属性 a = 1 を持つ第二群は分布 (x1, x2) > p1 を持ち、p1 は二つのガウス N ([3, −3], I) と N ([3, −3], I) の混合である。 0.84
The label of a point (x1, x2) is defined by y = 1 if sign(x1) = sign(x2) and y = 0 otherwise. 点 (x1, x2) のラベルは、符号(x1) = sign(x2) と y = 0 がなければ y = 1 で定義される。 0.91
Our goal is to learn a data representation z = f (x, a) such that it is impossible to recover a from z, but still possible to predict target y from z. 我々のゴールは、データ表現 z = f (x, a) を学ぶことで、z から a を回復することは不可能であるが、z からターゲット y を予測できることである。 0.80
Note that such a representation exists for our task: simply setting z = f (x, a) = (−1)ax makes it impossible to predict whether a particular z corresponds to a = 0 or a = 1, while still allowing us to train a classifier h with essentially perfect accuracy (e g , h(z) = 1{z1>0}). z = f (x, a) = (−1)ax を単に設定すれば、特定の z が a = 0 または a = 1 に対応するかどうかを予測することは不可能であると同時に、本質的に完全な精度(例えば h(z) = 1{z1>0} )で分類器 h を訓練することができる。 0.79
Adversarial training for fair representations One of the most popular approaches to this problem is adversarial training [4, 5]. 公正表現のための敵対的訓練 この問題に対する最も一般的なアプローチの1つは、敵的訓練[4, 5]である。 0.64
The idea is to train encoder f and classifier h jointly with an adversary g that tries to predict sensitive attribute a. この考え方は、エンコーダ f と分類器 h を、感度属性 a を予測しようとする敵 g と共同で訓練することである。 0.60
While the adversary tries to minimize its loss Ladv, the encoder f and classifier h are trying to maximize Ladv and minimize the classification loss Lclf : 敵がその損失 Ladv を最小化しようとする一方で、エンコーダ f と分類器 h は Ladv を最大化し、分類損失 Lclf : を最小化しようとしている。 0.67
min f,h max g∈G ミンf,h max gg の略。 0.41
E (x,a)∼D [Lclf (f (x, a), h) − γLadv(f (x, a), g)] , E (x,a)-d [lclf (f (x, a), h) − γladv(f (x, a), g)] , 0.76
(2) where G denotes the model family of adversaries, e g , neural networks, considered during training. (2) ここでGは、トレーニング中に考慮された敵、例えばニューラルネットワークのモデルファミリーを表す。 0.80
Unfortunately, there are two key issues with adversarial training. 残念ながら、敵の訓練には2つの大きな問題がある。 0.57
First, it yields a non-convex optimization problem which usually cannot be solved to optimality because of saddle points (extensively studied for GANs [45]). 第一に、サドル点(GAN [45])のため、通常は最適に解決できない非凸最適化問題が得られる。 0.62
Second, it assumes that the adversary g comes from a fixed model family G, which means that even if the optimal g ∈ G cannot recover the sensitive attribute a, adversaries from other model families can still do so as demonstrated in recent work [11–15]. 第二に、逆 g は固定モデル族 G に由来すると仮定し、最適 g ∈ G が感度属性 a を回復できないとしても、他のモデル族からの逆も最近の研究 [11-15] で示されるようにすることができる。 0.73
To investigate these 4 これを調べるために 4 0.73
英語(論文から抽出)日本語訳スコア
issues, we apply adversarial training to learn representations for our synthetic example, and measure how often the sensitive attributes can be recovered from learned representations. 課題は、合成例の表現を学習するために敵対的トレーニングを適用し、学習した表現から感度属性がどれだけ頻繁に回収できるかを測定することである。 0.55
Our results, shown in Fig 3, repeated 100 times with different seeds, demonstrate that adversarial training is unstable and rarely results in truly fair representations (where only 50% can be recovered). 本研究の結果は, 異なる種子を交互に100回繰り返した結果, 対人訓練は不安定であり, 真に公平な表現(50%しか回収できない)は稀であった。 0.73
In Section 6 we follow up on recent work and show that several adversarial fair representation learning approaches are not robust to adversaries from a different model familiy (e g , larger networks). 第6節では、最近の研究をフォローアップし、異なるモデル(例えば、より大きなネットワーク)の敵に対して、いくつかの敵の公正表現学習アプローチが堅牢でないことを示す。 0.64
In Fig 3 we show that our approach, introduced next, can reliably produce fair representations without affecting utility. 図3では、次に導入された我々のアプローチが、有用性に影響を与えずに公平な表現を確実に生成できることを示しています。
訳抜け防止モード: 図3では、 次に導入された我々のアプローチは 実用性に影響を与えることなく 公正な表現を確実に生成できます
0.61
5 Fair Normalizing Flows 5つの公平な正規化フロー 0.56
Throughout this section we will assume knowledge of prior distributions p0(x) and p1(x). この節を通して、事前分布 p0(x) と p1(x) の知識を仮定する。 0.75
At the end of the section, we discuss the required changes if we only work with estimates. セクションの最後には、見積もりのみを扱う場合に必要な変更について論じます。 0.61
Let Z0 and Z1 denote conditional distributions of z = f (x, a) for a ∈ {0, 1}, and let pZ0 and pZ1 denote their respective densities. Z0 と Z1 は a ∈ {0, 1} に対して z = f (x, a) の条件分布を示し、pZ0 と pZ1 はそれぞれの密度を表す。 0.87
Madras et al [5] have shown that bounding the statistical distance ∆(Z0, Z1) between Z0 and Z1 provides an upper bound on the unfairness of any classifier h built on top of the representation encoded by f . Madras et al [5] は、Z0 と Z1 の間の統計的距離 t(Z0, Z1) の境界は、f で符号化された表現の上に構築された任意の分類器 h の不正性に上限を与えることを示した。
訳抜け防止モード: madras et al [5 ]は z0 と z1 の間の統計距離 s(z0, z1 ) の境界 f で符号化された表現の上に構築された分類器 h の不正性の上界を提供する。
0.73
The statistical distance between Z0 and Z1 is defined as Z0 と Z1 の間の統計的距離は、 0.80
∆(Z0, Z1) , sup µ シュ(Z0, Z1) , sup μ 0.74
| E z∼Z0 [µ(z)] − E | E z'Z0 [μ(z)] − E 0.69
z∼Z1 [µ(z)]|, ザイズ1 [μ(z)]|, 0.45
(3) where µ is a binary classifier trying to discriminate between Z0 and Z1. (3) μ は Z0 と Z1 を区別しようとする二項分類器である。 0.80
If we can train an encoder to induce latent distributions Z0 and Z1 with statistical distance below some threshold, then we can both upper bound the maximum adversarial accuracy by (1 + ∆(Z0, Z1))/2 and, using the bounds from Madras et al [5], obtain guarantees for demographic parity and equalized odds of any downstream classifier h. Such guarantees are unattainble for adversarial training, which minimizes a lower bound of ∆(Z0, Z1). エンコーダを訓練して、あるしきい値以下で遅延分布 Z0 と Z1 を統計的に導くことができれば、最大逆数精度を (1 + s(Z0, Z1))/2 で上界し、Madras et al [5] の有界を用いて、任意の下流分類器 h の階層パリティと等化確率の保証を得ることができる。
訳抜け防止モード: もしエンコーダを訓練して、あるしきい値以下の統計距離で潜伏分布 z0 と z1 を誘導できるなら、 すると、どちらも最大逆数を ( 1 + )(z0,) で上限にすることができる。 z1))/2 and using the bounds from madras et al [ 5 ] 下流分類器hの人口比パリティと等化確率の保証を得る。 これは、下限 s(z0 , z1 ) を最小化する。
0.75
In contrast, we learn fair representations that allow computing the optimal adversary µ∗ attaining the supremum in Eq (3) and thus enable exact evaluation of ∆(Z0, Z1). 対照的に、Eq (3) の上限となる最適逆 μ∗ を計算し、したがって >(Z0, Z1) の正確な評価を可能にするフェア表現を学習する。 0.67
Optimal adversary We can rewrite the equation for statistical distance ∆(Z0, Z1) as follows: 最適逆数 統計的距離 ^(Z0, Z1) の式を次のように書き直すことができる。 0.74
µ (cid:12)(cid:12)(cid :12)(cid:12) [µ(z)](cid:12)(cid:12) = sup μ (cid:12)(cid:12)(cid :12)(cid:12) [μ(z)](cid:12)(cid:12) = sup 0.87
Zz (pZ0 (z) − pZ1(z))µ(z)(cid:12)(cid:12)( cid:12)(cid:12) ZZ (pZ0(z) − pZ1(z))μ(z)(cid:12)(cid:12)( cid:12)(cid:12) 0.73
. (4) ∆(Z0, Z1) = sup . (4) s(Z0, Z1) = sup 0.82
µ (cid:12)(cid:12) E μ (cid:12)(cid:12) E 0.81
z∼Z0 [µ(z)] − E ゼズ0 [μ(z)] − E 0.63
z∼Z1 The equation implies that there are two possibilities for the optimal adversary: it either assigns µ(z) = 1 if and only if pZ0(z) > pZ1(z) or it assigns µ(z) = 1 if and only if pZ0 (z) < pZ1 (z). ザイズ1 pZ0(z) > pZ1(z) または pZ0(z) < pZ1(z) のときのみ、または pZ0(z) < pZ1(z) の場合のみである。
訳抜け防止モード: ザイズ1 この方程式は、最適逆数には2つの可能性があることを意味する。 μ(z ) = 1 を割り当てるのは pZ0(z ) > pZ1(z ) あるいは μ(z ) = 1 を割り当てるのは pZ0 ( z ) < pZ1 ( z ) である。
0.61
This intuitively makes sense – given some representation z, the adversary computes likelihood under both distributions Z0 and Z1, and predicts the attribute with higher likelihood for that z. Liao et al [9] also observed that the optimal adversary can be phrased as arg maxa p(a|z). これは直感的に意味を成す - いくつかの表現 z が与えられたとき、敵は z0 と z1 の両方の分布の下で確率を計算し、z. liao et al [9] に対して高い確率でその属性を予測する。
訳抜け防止モード: これは直感的に意味があり、ある表現 z, 逆行列は、Z0 と Z1 の両方の分布の下で確率を計算する。 z. Liao et al [9 ] の属性を高い確率で予測し 最適な敵はarg maxa p(a|z )と表現できる。
0.72
So far, prior work mostly focused on mapping input x to the latent representation z = fθ(x, a) via standard neural networks. これまでの研究では、入力 x を標準ニューラルネットワークによる潜在表現 z = fθ(x, a) にマッピングすることに集中していた。 0.68
However, for such models, given densities p0(x) and p1(x) over the input space, it is intractable to compute the densities pZ0 (z) and pZ1 (z) in the latent space as many inputs x can be mapped to the same latent z (e g , ReLU activations are not injective). しかしそのようなモデルの場合、入力空間上の密度 p0(x) と p1(x) が与えられたとき、多くの入力 x が同じ潜在 z に写像できるので、潜在空間内の密度 pZ0(z) と pZ1(z) を計算することは困難である(例えば、ReLU の活性化は射影的ではない)。 0.76
Consequently, prior adversarial training methods cannot compute the optimal adversary and have to resort to a lower bound. したがって、事前の敵訓練方法は最適な敵を計算できず、下限に頼る必要がある。 0.63
Encoding with normalizing flows Our approach, named Fair Normalizing Flows (FNF), consists of two models, f0 and f1, that encode inputs from the groups with sensitive attributes a = 0 and a = 1, respectively. 正規化フローを符号化する我々のアプローチは、FNF(Fair Normalizing Flows)と呼ばれ、2つのモデル f0 と f1 で構成されており、それぞれ、感度属性 a = 0 と a = 1 を持つ群からの入力を符号化する。
訳抜け防止モード: 正規化フローを用いたエンコーディング フェア正規化フロー (FNF) と呼ばれる我々のアプローチ f0とf1の2つのモデルから成り 感度属性 a = 0 と a = 1 の群からの入力をエンコードする。
0.82
We show a high-level overview of FNF in Fig 1. 図1のFNFの高レベルな概要を示す。 0.73
Note that models f0 and f1 are parameterized by θ0 and θ1, but we do not write this explicitly to ease the notation. モデル f0 と f1 は θ0 と θ1 によってパラメータ化されるが、表記を容易にするために明示的には記述しない。 0.66
Given some input x0 ∼ p0, it is encoded to z0 = f0(x0), inducing a probability distribution Z0 with density pZ0(z) over all possible latent representations z. 入力 x0 が与えられたとき、z0 = f0(x0) に符号化され、すべての潜在表現 z 上の密度 pz0(z) を持つ確率分布 z0 を誘導する。 0.79
Similarly, inputs x1 ∼ p1 are encoded to z1 = f1(x1), inducing the probability distribution Z1 with density pZ1 (z). 同様に入力x1はz1 = f1(x1)に符号化され、密度pz1(z)の確率分布z1を誘導する。 0.76
Clearly, if we can train f0 and f1 so that the resulting distributions Z0 and Z1 have small distance, then we can guarantee fairness of representations using bounds from Madras et al [5]. 明らかに、結果の分布 z0 と z1 が小さい距離を持つように f0 と f1 を訓練できるなら、madras と al [5] の境界を使って表現の公平性を保証することができる。 0.69
As evaluating statistical distance is intractable for most neural networks, we now need a model family that allows us to compute this quantity. ほとんどのニューラルネットワークでは統計的距離の評価が難しいため、この量の計算を可能にするモデルファミリが必要です。 0.72
We propose to use bijective encoders f0 and f1 based on normalizing flows [22, 41]. 正規化フロー [22, 41] に基づく単射エンコーダ f0 と f1 の使用を提案する。 0.78
Normalizing flows allow us to compute the densities at z, using the change of variables formula 流れの正規化により変数公式の変化を用いてzの密度を計算することができる 0.75
log pZa(z) = log pa(f −1 log pZa(z) = log pa(f −1 0.92
a (z)) + log(cid:12)(cid:12)( cid:12)(cid:12) a (z)) + log(cid:12)(cid:12)( cid:12)(cid:12) 0.84
det ∂f −1 a (z) ∂z det ∂f −1 a (z) ∂z 0.85
(cid:12)(cid:12)(cid :12)(cid:12) (cid:12)(cid:12)(cid :12) 0.94
5 (5) 5 (5) 0.85
英語(論文から抽出)日本語訳スコア
for a ∈ {0, 1}. a ∈ {0, 1} に対して。 0.90
We can thus write the optimal adversary as µ∗(z) = 1{pZ0 (z)≤pZ1 (z)}. したがって、最適逆元を μ∗(z) = 1{pZ0(z)≤pZ1(z) と書くことができる。 0.79
To compute the statistical distance it remains to evaluate the expectations Ez∼Z0[µ∗(z)] and Ez∼Z1[µ∗(z)]. 統計的距離を計算するためには、Ez'Z0[μ∗(z)] と Ez'Z1[μ∗(z)] の予想を評価する必要がある。 0.68
Sampling from Z0 and Z1 is straightforward – we can sample x0 ∼ p0 and x1 ∼ p1, and then pass the samples x0 and x1 through the respective encoders f0 and f1 to obtain z0 ∼ Z0 and z1 ∼ Z1. Z0 と Z1 からのサンプリングは単純で、x0 と p0 と x1 と p1 をサンプリングし、サンプル x0 と x1 を各エンコーダ f0 と f1 に渡して z0 と Z0 と z1 とを得る。 0.78
Given that the outputs of µ∗ are bounded between 0 and 1, we can then use Hoeffding inequality to compute the confidence intervals for our estimate using a finite number of samples. μ∗ の出力が 0 と 1 の間に有界であると仮定すると、ホッフィングの不等式を使って有限個のサンプルを用いて推定の信頼区間を計算することができる。 0.71
Lemma 5.1. Given a finite number of samples x1 1 ∼ p1, denote i=1 µ∗(zi as zi 1)| be an empirical estimate of the statistical distance ∆(Z0, Z1). 通称5.1。 有限個のサンプル x1 1 が与えられたとき、i=1 μ∗(zi as zi 1)| を統計距離 s(z0, z1) の経験的推定値とする。 0.69
Then, with probability at least (1 − 2 exp(−nǫ2/2))2, we are guaranteed that ∆(Z0, Z1) ≤ ˆ∆(Z0, Z1) + ǫ. すると、少なくとも (1 − 2 exp(−n)2/2))2 の確率では、s(Z0, Z1) ≤ s(Z0, Z1) + s が保証される。 0.73
0, ..., xn 1) and let ˆ∆(Z0, Z1) := | 1 0, ..., xn 1) とし、s(Z0, Z1) := | 1 とする。 0.87
0 ∼ p0 and x1 n Pn i=1 µ∗(zi 0 > p0 および x1 n Pn i=1 μ∗(zi) 0.77
1, ..., xn n Pn 1, ..., xn n Pn 0.74
1, x2 0) − 1 1, x2 0) − 1 0.96
0 = f0(xi 0 = f0(xi) 0.85
0) and zi 1 = f1(xi 0)およびzi 1 = f1(xi) 0.83
0, x2 Training flow-based encoders The next challenge is to design a training procedure for our newly proposed architecture. 0, x2 フローベースのエンコーダのトレーニング 次の課題は、新しく提案されたアーキテクチャのトレーニング手順を設計することです。 0.80
The main issue is that the statistical distance is not differentiable (as classifier µ∗ is binary) so we want to replace it with a differentiable proxy. 主な問題は、統計距離が(分類器 μ∗ が二項であるように)微分可能ではないため、微分可能なプロキシに置き換えたいということである。
訳抜け防止モード: 主な問題は 統計距離は微分できない(分類器 μ∗ が二進数であるように) 差別化可能なプロキシで置き換えたいのです
0.73
Pinsker’s inequality guarantees that the statistical distance between Z0 and Z1 is bounded by the square root of 1 2 DKL(pZ0 k pZ1 ), and thus we can try to minimize the KL divergence between Z0 and Z1. ピンスカーの不等式は、Z0 と Z1 の間の統計的距離が 1 2 DKL (pZ0 k pZ1 ) の平方根で有界であることを保証するので、Z0 と Z1 の間の KL の発散を最小限に抑えることができる。 0.72
We show a high-level description of our training procedure in Algorithm 1. アルゴリズム1におけるトレーニング手順の高レベルな記述を示す。 0.78
In each step, we sample a batch of x0 and x1 from the respective distributions and encode them to the representations z0 and z1. 各ステップでは、各ディストリビューションからx0とx1のバッチをサンプリングし、z0とz1の表現にエンコードします。 0.75
We then estimate a symmetrized KLdivergence between distributions Z0 and Z1, denoted as L0 + L1, and combine it with a classification loss Lclf using tradeoff parameter γ, and run a gradient step to minimize the joint loss. 次に、l0 + l1 と表記される分布 z0 と z1 の間の対称性kldivergenceを推定し、トレードオフパラメータ γ を用いて分類損失 lclf と組み合わせ、勾配ステップを実行してジョイントロスを最小化する。 0.78
Algorithm 1 Learning Fair Normalizing Flows アルゴリズム1 公平な正規化フローの学習 0.70
Input: N, B, γ, p0, p1 Initialize f0 and f1 with parameters θ0 and θ1 for i = 1 to N do 入力: n, b, γ, p0, p1 はパラメータ θ0 と θ1 で f0 と f1 を初期化する。 0.89
for j = 1 to B do j = 1 から B に対して 0.88
1 ∼ p1 0 ∼ p0, xj Sample xj 0 = f0(xj zj 0) 1 = f1(xj zj 1) B PB B PB 1~p1。 0 > p0, xj サンプル xj 0 = f0(xj zj 0) 1 = f1(xj zj 1) B PB B PB 0.78
end for L0 = 1 L1 = 1 L = γ(L0 + L1) + (1 − γ)Lclf Update θ0 ← θ0 − α∇θ0L Update θ1 ← θ1 − α∇θ1L L0 = 1 L1 = 1 L = γ(L0 + L1) + (1 − γ)Lclf Update θ0 シュ θ0 − α θ0L Update θ1 シュ θ1 − α θ1L 0.84
j=1 log pZ0(zj j=1 log pZ1(zj j=1 log pZ0(zj j=1 log pZ1(zj) 0.72
0) − log pZ1(zj 0) 1) − log pZ0(zj 1) 0) − log pZ1(zj 0) 1) − log pZ0(zj 1) 0.94
end for Bijective encoders for categorical data Many fairness datasets consist of categorical data, and often even continuous data is discretized before training. 終止符 分類データのための単射エンコーダ 多くのフェアネスデータセットは分類データで構成され、しばしば連続データでさえ訓練前に離散化される。 0.68
In this case, we will show that the optimal bijective representation can be easily computed. この場合、最適な単射表現を容易に計算できることを示します。 0.64
Consider the case of discrete samples x coming from a probability distribution p(x) where each component xi takes a value from a finite set {1, 2, . 確率分布 p(x) から来る離散サンプル x の場合を考えると、各成分 xi は有限集合 {1, 2, から値を取る。 0.73
. . , di}. Similar to the continuous case, our goal is to find bijections f0 and f1 that minimize the statistical distance of the latent distributions. . . である。 連続の場合と同様に、我々の目標は潜在分布の統計距離を最小化する単射 f0 と f1 を見つけることである。 0.71
Intuitively, we want to pair together inputs which have similar probabilities in both p0 and p1. 直感的には、p0 と p1 の両方で同様の確率を持つ入力をペアにしたい。 0.70
In Lemma 5.2 we show that the solution which minimizes the statistical distance is obtained by sorting the inputs according to their probabilities in p0 and p1, and then matching inputs at the corresponding indices in these two sorted arrays. lemma 5.2 において、統計距離を最小化する解は、p0 と p1 の確率に応じて入力をソートし、これら2つのソートされた配列の対応するインデックスで入力をマッチングすることによって得られることを示す。 0.67
As this can result in a bad classification accuracy when inputs with different target labels get matched together, we can obtain another representation by splitting inputs in two groups according to the predicted classification label and then matching inputs in each group using Lemma 5.2. これにより、異なるターゲットラベルの入力が一致したときの分類精度が悪くなるため、予測された分類ラベルに従って2つのグループで入力を分割し、次にLemma 5.2を用いて各グループで入力をマッチングすることで、別の表現を得ることができる。 0.71
We can trade off accuracy and fairness by randomly selecting one of the two mappings based on parameter γ. パラメータγに基づいて2つのマッピングのうちの1つをランダムに選択することで、正確さと公平さをトレードオフすることができる。
訳抜け防止モード: 正確さと公平さを パラメータ γ に基づいて2つのマッピングのうちの1つをランダムに選択する。
0.72
Lemma 5.2. Let X = {x1, ..., xm} and bijections f0, f1 : X → X . 補題5.2。 X = {x1, ..., xm} と単射 f0, f1 : X → X とする。 0.66
Denote i1, i2, ..., im and j1, ..., jm permutations of {1, 2, ..., m} such that p0(xi1 ) ≤ p0(xi2 ) ≤ ... ≤ p0(xim) and p1(xj1 ) ≤ p1(xj2 ) ≤ ... ≤ p1(xjm ). i1, i2, ..., im, j1, ..., jm の {1, 2, ..., m} の置換を p0(xi1 ) ≤ p0(xi2 ) ≤ ... ≤ p0(xim) と p1(xj1 ) ≤ p1(xj2 ) ≤ ... ≤ p1(xjm ) とする。 0.91
The encoders defined by mapping f0(xk) = xk and f1(xjk ) = xik are bijective representations with the smallest possible statistical distance. 写像 f0(xk) = xk と f1(xjk ) = xik で定義されるエンコーダは、最小の統計距離を持つ単射表現である。 0.80
Statistical distance of true vs. estimated density In this work we assume access to a density of the inputs for both groups and we provably guarantee fairness with respect to this density. 真と推定密度の統計的距離 この研究では、両方の群に対する入力の密度へのアクセスを仮定し、この密度に関して確実に公正性を保証する。 0.77
While it is sensible in the cases where the density estimate can be trusted (e g , if it was provided by a regulatory agency), in many practical scenarios, and our experiments in Section 6, we only have an estimate ˆp0 and ˆp1 of the true densities p0 and p1. 密度推定が信頼できる場合(例えば、規制当局によって提供された場合)には理にかなっているが、多くの実践的なシナリオや第6節での我々の実験では、真の密度 p0 と p1 の見積もりは p0 と p1 のみである。 0.81
We now want to know how far off our guarantees are compared to the ones for the true density. 今私たちは、真の密度に対する保証と、保証がどこまで離れているのかを知りたいのです。 0.66
The following theorem provides a way to theoretically bound the statistical distance between pZ0 and pZ1 using the statistical distance between ˆpZ0 and ˆpZ1 . 下記の定理は、pZ0 と pZ1 の間の統計距離を理論上は pZ0 と pZ1 の間の統計距離で表すものである。 0.73
6 6 0.85
英語(論文から抽出)日本語訳スコア
(a) Continuous datasets (a)連続データセット 0.88
(b) Categorical datasets b)分類的データセット 0.79
Figure 4: Fair Normalizing Flows (FNF) on continuous and categorical data. 図4: 連続および分類データ上の公平な正規化フロー(FNF)。 0.86
The points show different accuracy vs. statistical distance tradeoffs (with 95% confidence intervals from varied random seeds), demonstrating that FNF significantly reduces statistical distance while retaining high accuracy. これらのポイントは、統計的な距離トレードオフと異なる精度を示し(95%の信頼区間がランダムな種から得られる)、fnfは高い精度を維持しながら統計的距離を著しく減少させることを示した。
訳抜け防止モード: 点の精度は統計的距離のトレードオフと異なる(確率的な種から95%の信頼区間を持つ)。 FNFは高い精度を維持しながら統計的距離を著しく減少させる。
0.70
Theorem 5.3. Let ˆp0 and ˆp1 be density estimates such that T V (ˆp0, p0) < ǫ/2 and T V (ˆp1, p1) < ǫ/2, where T V stands for total variation between two distributions. 理論5.3。 T V(p0, p0) と T V(p1, p1) と T V(p1, p1) とで、T V は2つの分布間の全変動を表す。 0.68
If we denote latent distributions f0(ˆp0) and f1(ˆp1) as ˆpZ0 and ˆpZ1 then ∆(pZ0 , pZ1) ≤ ∆(ˆpZ0 , ˆpZ1 ) + ǫ. 潜在分布 f0(英語版) と f1(英語版) を spZ0 と spZ1 と書くと、 s(pZ0 , pZ1) ≤ s(pZ0 , spZ1 ) + s となる。 0.69
This theorem can be naturally combined with Lemma 5.1 to obtain a high probability upper bound on the statistical distance of the underlying true densities using estimated densities and a finite number of samples. この定理は自然に lemma 5.1 と組み合わされ、推定密度と有限個のサンプルを用いて基礎となる真の密度の統計的距離で高い確率上限を得ることができる。 0.75
Computing exact constants for the theorem is often not tractable, but as we will show experimentally, in practice bounds computed on the estimated distribution in fact bound adversarial accuracy on the true distribution. この定理の厳密な定数の計算は、しばしば扱いにくいが、実験的に示すように、実際の分布で計算される境界は、真の分布上の実際の境界付き逆精度で計算される。 0.70
Moreover, for low-dimensional data relevant to fairness obtaining good estimates can be provably done for models such as Gaussian Mixture Models [46] and Kernel Density Estimation [47]. さらに、良質な推定を得るフェアネスに関連する低次元データについては、ガウス混合モデル [46] や核密度推定 [47] のようなモデルで証明することができる。 0.76
We can thus leverage the rich literature on density estimation [22, 40– 42, 48–50, 46, 47, 51] to estimate ˆp0 and ˆp1. これにより、密度推定 (22, 40– 42, 48–50, 46, 47, 51) にリッチな文献を活用でき、シュプ0とシュプ1を推定できる。 0.67
Importantly, FNF is agnostic to the concrete density estimation method (as we will show in Section 6), and can thus benefit from future advances in the field. 重要なことは、FNFは具体的な密度推定法に非依存であり(第6節で示すように)、将来の分野の進歩の恩恵を受けることができる。 0.63
Finally, we note that density estimation has been successfully employed in a variety of security-critical areas such as fairness [7], adversarial robustness [52], and anomaly detection [53– 64]. 最後に,fairness [7],adversarial robustness [52],anomaly detection [53–64] など,さまざまなセキュリティクリティカルな領域において,密度推定がうまく適用されていることに留意する。 0.87
6 Experimental Evaluation In this section, we evaluate Fair Normalizing Flows (FNF) on several standard datasets from the fairness literature. 6 実験評価 本稿では,フェアネス文献からFNF(Fair Normalizing Flows)をいくつかの標準データセットで評価する。 0.80
We consider Adult and Crime from the UCI repository [65], Compas [66], Law School [67], and Health Heritage Prize [68]. uciリポジトリ [65], compas [66], law school [67], health heritage prize [68] の成人と犯罪について考察した。 0.72
We preprocess Compas and Adult into categorical datasets by discretizing continuous features, and we keep the other datasets as continuous. コンパとアダルトは、連続した特徴を識別して分類データセットにプリプロセスし、他のデータセットを連続的に保持します。 0.56
We preprocess the datasets by dropping uninformative features, facilitating learning a good density estimate, while keeping accuracy high (shown in Appendix B). 我々は,不規則な特徴を取り除いてデータセットを事前処理し,精度を高く保ちながら良好な密度推定を行うことにより,データセットを事前処理する(付録b)。 0.54
We describe our full setup in Appendix B. Appendix Bで完全なセットアップを説明します。 0.72
We will release all code, datasets, and preprocessing pipelines to ensure reproducibility of our results. 結果の再現性を確保するため、すべてのコード、データセット、前処理パイプラインをリリースします。 0.62
Evaluating Fair Normalizing Flows We first evaluate FNF’s effectiveness in learning fair representations. 公平な正規化フローを評価する まず, 公正表現の学習におけるFNFの有効性を評価する。 0.62
For each dataset, we train different FNF models by varying the utility vs. divergence tradeoff parameter γ (see Algorithm 1). 各データセットに対して、ユーティリティ対分散トレードオフパラメータ γ を変化させて異なるFNFモデルを訓練する(アルゴリズム1)。 0.83
We estimate input densities using RealNVP [41] for Health, MADE [51] for Adult and Compas, and Gaussian Mixture Models (GMMs) for the rest. realnvp [41] を健康に, [51] を成人, コンパスに, ガウス混合モデル (gmms) を健康に用いて入力密度を推定した。
訳抜け防止モード: 健康のためにRealNVP[41 ]を用いて入力密度を推定する。 MADE [51 ] for adult and Compas, and Gaussian Mixture Models (GMMs ) for the rest .
0.88
For continuous datasets we use RealNVP as encoder architecture, while for categorical datasets we compute the optimal bijective representations using Lemma 5.2. 連続データセットではエンコーダアーキテクチャとしてRealNVPを使用し、分類データセットではLemma 5.2を使って最適な単射表現を計算します。 0.65
Fig 4 shows our results, each point representing a single model, with models on the right focusing on classification accuracy, and models on the left gradually increasing their fairness focus. 図4は、各点が1つのモデルを表し、右のモデルは分類精度に焦点を合わせ、左のモデルは徐々に公平度に焦点をあてる。 0.71
The results in Fig 4, averaged over 5 random seeds, indicate that FNF successfully reduces the statistical distance between representations of sensitive groups while maintaining high accuracy. fig 4は5種以上の無作為種子を平均し、fnfは高い精度を維持しながら感度の高い群の表現間の統計的距離を下げることに成功した。
訳抜け防止モード: Fig 4の結果は、平均5個以上のランダム種子が得られた。 FNFは高い精度を維持しながら、センシティブなグループの表現間の統計的距離を小さくする。
0.66
We observe that for some datasets (e g , Law School) enforcing fairness only slightly degrades accuracy, while for others there is a substantial drop (e g , Crime). 公平さを強制するデータセット(ロースクールなど)では、正確さがわずかに低下するだけであり、他のデータセットでは相当な低下(犯罪など)がある。 0.68
In such datasets where the label and sensitive attribute are highly correlated we cannot achieve fairness and high accuracy simultaneously [69, 70]. ラベルとセンシティブな属性が高い相関関係にあるデータセットでは、公平性と高い精度を同時に達成できない[69, 70]。 0.80
Overall, we see that FNF is generally insensitive to the random seed and can reliably enforce fairness. 全体として、FNFは一般にランダムシードに敏感であり、公正性を確実に強制することができる。 0.58
Recall that we have focused on min- minに焦点を当てたことを思い出して- 0.57
7 7 0.85
英語(論文から抽出)日本語訳スコア
Figure 5: Bounding adversarial accuracy. 図5: 敵の精度の境界。 0.71
Table 1: Adversarial fair representation learning methods are generally only fair w.r.t. 表1: 敵対的公正表現学習法は一般に公正なw.r.tのみである。 0.55
adversaries from a training model family G. In constrast, FNF provides a provable upper bound on the maximum accuracy of any adversary. constrastでは、fnfは任意の敵の最大精度の証明可能な上限を提供する。 0.42
ADV ACC ACC ADV ACC ACC 0.85
g ∈ G g 6∈ G g ∈ G g6・g 0.80
MAX ADV ACC MAX ADV ACC 0.85
ADV FORGETTING [10] MAXENT-ARL [8] LAFTR [5] FNF (OUR WORK) ADV ForGETtting [10]MAXENT-ARL [8] LAFTR [5] FNF (our WORK) 0.87
85.99 85.90 86.09 84.43 85.99 85.90 86.09 84.43 0.45
66.68 50.00 72.05 66.68 50.00 72.05 0.47
74.50 85.18 84.58 N/A 59.56 74.50 85.18 84.58 N/A 59.56 0.44
✗ ✗ ✗ 61.12 ✗ ✗ ✗ 61.12 0.78
imizing statistical distance of learned representations because, as mentioned earlier, Madras et al [5] have shown that fairness metrics such as demographic parity, equalized odds and equal opportunity can all be bounded by statistical distance. 前述したように、マドラスらは、統計学的パリティ、等化オッズ、等機会といった公平度指標は全て統計的距離によって境界づけられることを示したため、学習された表現の統計的距離を模倣した。 0.66
For example, for Health FNF reduces the demographic parity distance of a classifier from 0.39 to 0.08 with an accuracy drop of 3.9% (see additional results in Appendix C). 例えば、Health FNFは分類器の人口パーティ距離を0.39から0.08に減らし、精度は3.9%低下する(Appendix Cのさらなる結果を参照)。 0.74
Bounding adversarial accuracy Recall that the guarantees provided by FNF hold for estimated densities ˆp0 and ˆp1. FNF が提供する保証は、推定密度 >p0 および >p1 に対して保持される。 0.59
Namely, the maximum adversarial accuracy for predicting whether the latent representation z comes from distribution ˆZ0 or ˆZ1 is bounded by (1 + ∆( ˆZ0, ˆZ1))/2. 即ち、潜在表現 z が分布 /z0 から来るかどうかを予測するための最大逆数精度は (1 + s(s0,z1)/2) である。 0.74
In this experiment, we investigate how well these guarantees transfer to the underlying distributions Z0 and Z1. 本実験では, 基礎となる分布 z0 と z1 への移動の保証について検討する。 0.73
In Fig 5 we show our upper bound on the adversarial accuracy computed from the statistical distance using the estimated densities (diagonal dashed line), together with adversarial accuracies obtained by training an adversary, a multilayer perceptron (MLP) with two hidden layers of 50 neurons, for each model from Fig 4. 図5では、推定密度(斜め断線)を用いて統計的距離から算出した対角精度の上限と、Fig 4のモデルごとに、敵の2つの隠れた50個のニューロンを持つ多層パーセプトロン(MLP)をトレーニングして得られた対角精度の上限を示す。 0.71
We also show 95% confidence intervals obtained using the Hoeffding bound from Lemma 5.1. また,Lemma 5.1 から有界な Hoeffding を用いて95%の信頼区間を求める。 0.69
We observe that our upper bound from the estimated densities ˆp0 and ˆp1 provides a tight upper bound on the adversarial accuracy for the true distributions Z0 and Z1. 我々は、推定密度からの上界が、真の分布 Z0 と Z1 の対角精度に厳密な上界を与えることを観察する。 0.69
This demonstrates that, even though exact constants from Theorem 5.3 are intractable, our density estimate is good enough in practice, and our bounds hold for adversaries on the true distribution. これは、定理 5.3 の正確な定数が難解であるにもかかわらず、我々の密度推定は実際は十分十分であり、我々の境界は真の分布の敵に対して成り立つことを証明している。
訳抜け防止モード: これがそれを証明している。 Theorem 5.3の正確な定数は 難解ですが 密度推定は実際は十分です そして我々の限界は 真の分布に対する敵意を保ちます
0.80
Comparison with adversarial training We now compare FNF with adversarial fair representation learning methods: LAFTR-DP (γ = 2) [5]. 対人訓練との比較では、FNFと対人公正表現学習法を比較した: LAFTR-DP (γ = 2) [5]。 0.74
MaxEnt-ARL (α = 10) [8], and Adversarial Forgetting (ρ = 0.001, δ = 1, λ = 0.1) [10]. MaxEnt-ARL (α = 10) [8], and Adversarial Forgetting (ρ = 0.001, δ = 1, λ = 0.1) [10]。 0.93
Adversarial training operates on a family of adversaries G trying to predict the sensitive attribute from the latent representation. 敵の訓練は、潜伏表現からセンシティブな属性を予測しようとする敵のファミリーGで動作する。
訳抜け防止モード: 対人訓練は、敵対者のG試行のファミリーで動作する 潜在表現から 感度特性を予測します
0.72
Here, the families G are MLPs with 1 hidden layer of 8 neurons for [5], and 2 hidden layers with 64 neurons and 50 neurons for [8] and [10], respectively. ここで、ファミリーGは[5]の8ニューロンの1つの隠された層と[8]の64ニューロンと[10]の50ニューロンの2つの隠された層からなるMPPである。 0.69
In Table 1 we show that these adversarial training methods generally succeed in preventing adversaries from G to predict the sensitive attributes. 表1では、これらの敵の訓練手法が一般的にGから敵の侵入を防止し、感度特性を予測することに成功していることを示す。
訳抜け防止モード: 表1では これらの敵の訓練方法は一般に、gの敵が繊細な属性を予測するのを防ぐのに成功している。
0.52
However, we can still attack these representations using either larger MLPs (3 layers of 200 neurons for [5]) or simple preprocessing steps (for [8, 10]) as proposed by Gupta et al [15] (essentially reproducing their results). しかし、Gupta et al [15] が提案したように、より大きな MLP([5] に対して200のニューロンの3層)または単純な前処理ステップ([8, 10])を使ってこれらの表現を攻撃することができる。 0.74
Our results confirm findings from prior work [11–16]: adversarial training does not give guarantees against adversaries outside G. In contrast, FNF computes a provable upper bound on the accuracy of any adversary (i.e., G = ∅) for the estimated input distribution, and Table 1 shows that this extends to the true distribution (similar as in the previous experiment). 対照的に、FNFは、推定された入力分布について、任意の敵の精度(すなわち、G = s)の証明可能な上限を計算し、表1は、これが真の分布(前の実験と同様)にまで拡張されていることを示す。
訳抜け防止モード: 先行研究 [11-16] の結果を確認した。 敵対的訓練は、対照的に、外部の敵に対して保証を与えない。 fnf は、推定された入力分布に対する任意の敵の精度(例えば g = s )の証明可能な上限を計算する。 表1は、これが真の分布(以前の実験と同様)に拡張されることを示しています。
0.64
FNF thus learns representations with significantly lower adversarial accuracy with only minor decrease in task accuracy. これにより、FNFは、タスク精度をわずかに低下させるだけで、敵の精度が著しく低い表現を学習する。 0.48
Compatibility with different priors In the following experiment, we demonstrate that FNF is compatible with any differentiable estimate of p0 and p1. 異なる事前との整合性 次の実験では、FNF は p0 と p1 の任意の微分可能な推定値と整合性を示す。 0.65
We consider Crime with the same setup as before, but with 3 different priors: a GMM with k = 3 components, an autoregressive prior, and a RealNVP flow [41]. k = 3のコンポーネントを持つGMM、自動回帰的な事前、そしてRealNVPフロー[41]です。
訳抜け防止モード: 我々は犯罪を以前と同じ設定で考えるが、3つの異なる事前条件: k = 3 のコンポーネントを持つ GMM で考える。 自己回帰前処理と RealNVP フロー [41 ] 。
0.75
For each of these priors, we train an encoder using FNF and a classifier on top of the learned representations. これらのプリエント毎に、fnfと学習表現の上に分類器を使用してエンコーダをトレーニングします。 0.73
Fig 6 shows the tradeoff between the statistical distance and accuracy for each fig 6はそれぞれの統計距離と精度のトレードオフを示している 0.85
8 Figure 6: Different priors used. 8 図6: 異なる事前使用。 0.79
英語(論文から抽出)日本語訳スコア
Non-White (a = 1) real matched 非ホワイト(a = 1)実マッチング 0.83
White (a = 0) real matched 白(a = 0) リアルマッチ 0.72
Non-White (a = 1) real matched 非ホワイト(a = 1)実マッチング 0.83
White (a = 0) real matched 白(a = 0) リアルマッチ 0.72
FNF FNF (a) γ = 0 FNF FNF (a)γ = 0 0.84
(b) γ = 1 Figure 7: Visualizing k-means clusters on t-SNE embeddings of mappings between real points from the Crime dataset and their corresponding matches from the opposite attribute distribution. (b)γ = 1 図7:t-sne上のk-meansクラスタの可視化 犯罪データセットからの実点と対応する属性分布とのマッピングの埋め込み。 0.83
of the priors. Based on these results, we can conclude that FNF achieves similar results for each of the priors, empirically demonstrating the flexibility of our approach. 優先事項です これらの結果から,FNFはそれぞれの先行例に対して同様の結果を得ることができ,我々のアプローチの柔軟性を実証的に示すことができる。 0.59
Interpreting the representations We now show that the bijectivity of FNF enables interpretability analyses, an active area of research in fair representation learning [71–73]. 表現を解釈することで、fnfの単射性は、公正表現学習における活発な研究領域である解釈可能性解析を可能にすることを示した [71–73]。
訳抜け防止モード: 表現の解釈 FNF の単射性が解釈可能性解析を可能にすることを示す。 公正表現学習における活発な研究領域 [71–73 ]。
0.67
To that end, we consider the Crime dataset where for a community x: (i) race (non-white vs. white majority) is the sensitive attribute a, (ii) the percentage of whites (highly correlated with, but not entirely predictive of the sensitive attribute) is in the feature set, and (iii) the label y strongly correlates with the sensitive attribute. この目的のために、コミュニティ x: (i) 人種(非白人対白人多数派)がセンシティブ属性 a, (ii) ホワイトの割合(感度属性の高度に相関するが、完全には予測できない)が特徴集合内にあり、 (iii) ラベルyがセンシティブ属性と強く相関する犯罪データセットを考える。 0.69
We encode every community x ∼ pa as z = fa(x) and compute the corresponding community with opposite sensitive attribute that is also mapped to z, i.e., ˜x = f −1 (1−a)(z) (usually not in the dataset), yielding a matching between both distributions. すべてのコミュニティ x を z = fa(x) としてエンコードし、対応するコミュニティを z にもマッピングされる対極の敏感な属性で計算します。
訳抜け防止モード: すべてのコミュニティ x > pa を z = fa(x) としてエンコードする。 対応するコミュニティをzにマップされる 反対の感度属性で計算します つまり、x = f −1 ( 1−a)(z ) (通常データセットにはない)。 両方の分布を一致させます
0.76
We visualize the t-SNE [74] embeddings of this mapping for γ ∈ {0, 1} in Fig 7, where the dots are communities x and the crosses are the corresponding ˜x. 図7の γ ∈ {0, 1} に対するこの写像の t-SNE [74] 埋め込みを視覚化する。
訳抜け防止モード: fig 7 における γ ∈ { 0, 1 } に対するこの写像の t - sne [ 74 ] 埋め込みを可視化する。 点がコミュニティ x であり、十字線が対応する x である。
0.67
We run k-means [75, 76] on all points with a = 1 and show the matched clusters for points with a = 0 (e g , red clusters are matched). k-means [75, 76] を a = 1 のすべての点で実行し、a = 0 の点の一致するクラスタを示す(例えば、赤のクラスターは一致する)。 0.86
For γ = 0, where FNF only minimizes the classification loss Lclf , we observe a dichotomy between x and ˜x, since the encoder learns to match real points x with high likelihood to points ˜x with low likelihood, yielding both high task utility (due to (iii)), but also high statistical distance (due to (ii)). γ = 0 に対し、FNF は分類損失 Lclf のみを最小化するが、エンコーダは実点 x と低確率の点 x と高確率の点 x とを一致させることを学習し、高い作業性(すなわち (iii) により)と高い統計距離(すなわち (ii) により)の両方を得る。 0.75
For example, the red cluster has an average log-likelihood of −4.3 for x and −130.1 for ˜x. 例えば、赤いクラスタは、x が −4.3 で、x が −130.1 である。 0.74
In contrast, for γ = 1 FNF minimizes only the KL-divergence losses L0 + L1, and thus learns to match points of roughly equal likelihood to the same latent point z such that the optimal adversary can no longer recover the sensitive attribute. 対照的に、γ = 1 FNF の場合、KL-発散損失 L0 + L1 のみを最小化し、したがって最適逆元がもはや感度特性を回復できないような、同じ潜在点 z とほぼ等しく一致する点を学習する。 0.70
Accordingly, the red cluster has an average log-likelihood of −2.8 for x and −3.0 for ˜x. したがって、赤いクラスタは、x が −2.8 で、x が −3.0 である。 0.70
Algorithmic recourse with FNF We next experiment with using FNF’s bijectivity to perform recourse, i.e., reverse an unfavorable outcome, which is considered to be fundamental to transparent and explainable algorithmic decision-making [77, 78]. 次に、FNFのビジェクティビティを用いて、不愉快な結果、すなわち、透明で説明可能なアルゴリズムによる意思決定に不可欠な結果(77,78)を逆転させる実験を行う。
訳抜け防止モード: 次に、FNFのビジェクティビティを用いて、FNFを用いたアルゴリズムによるリコースを行い、リコースを行う。 つまり 好ましくない結果の 逆転です 透明性と説明可能なアルゴリズム決定に基本的であると考えられています - [77, 78 ]
0.68
To that end, we apply FNF with γ = 1 to the Law School dataset which has three features (after preprocessing): LSAT score, undergraduate GPA, and the college to which the student applied (ordered decreasingly in admission rate). そこで,本研究では, LSATスコア, 学部生のGPA, 学生が適用した大学(入学率の低下)の3つの特徴を有する法学校データセットに, γ = 1でFNFを適用した。 0.73
For all rejected applicants, i.e., x such that h(fa(x)) = h(z) = 0, we compute the closest ˜z (corresponding to a point ˜x from the dataset) w.r.t. すべての拒否された応募者、すなわち h(fa(x)) = h(z) = 0 となるような x に対して、最も近い (データセットの点 x に相当) w.r.t を計算する。 0.79
the ℓ2-distance in latent space such that h( ˜z) = 1. 潜在空間における l2-距離は h( yz) = 1 となる。 0.72
We then linearly interpolate between z and ˜z to find a (potentially crude) approximation of the closest point to z in latent space with positive prediction. その後、z と z の間に線形補間し、正の予測を伴う潜在空間における z に最も近い点の(潜在的に粗い)近似を見つける。 0.69
Using the bijectivity of our encoders, we can compute the corresponding average feature change in the original space which would have caused a positive decision: increasing LSAT by 4.2 (non-whites) and 7.7 (whites), and increasing GPA by 0.7 (nonwhites) and 0.6 (whites), where we only report recourse in the cases where the college does not change since this may not be actionable advice for certain applicants [79–82]. エンコーダの単射性を用いることで、元の空間における対応する平均的な特徴変化を計算できる: lsatを4.2(非白人)と7.7(白人)に増加させ、gpaを0.7(非白人)と0.6(白人)に増加させる。
訳抜け防止モード: エンコーダの単射性を利用して LSATを4.2(非白人)増やすという、前向きな決定を下すであろう元の空間における対応する平均的特徴変化を計算することができる。 および7.7(白)、GPAを0.7(非白)増加させる。 0.6(白人)で 大学が変わらなかった場合のみ これは、ある出願人[79-82 ]に対して実行可能なアドバイスではないかもしれない。
0.71
Transfer learning Unlike prior work, transfer learning with FNF requires no additional reconstruction loss as both encoders are invertible and thus preserve information. 転送学習 従来の作業とは異なり、FNFを用いた転送学習は、両エンコーダが可逆であり、情報を保存するため、追加の再構成損失を必要としない。 0.58
To demonstrate this, we follow the setup from Madras et al [5] and train a model to predict the Charlson Index. これを示すために、Madrasら[5]のセットアップに従い、Charlson Indexを予測するためにモデルをトレーニングします。 0.73
We then transfer the learned encoder and train a classifier for the task of predicting PCG label. 次に、学習したエンコーダを転送し、PCGラベルを予測するタスクの分類器を訓練する。 0.65
Our encoder reduces the statistical distance from 0.99 to 0.31 (this is independent of the label). エンコーダは統計距離を 0.99 から 0.31 に短縮する(ラベルとは独立)。 0.80
For the PCG label PCG ラベルについて 0.82
9 9 0.85
英語(論文から抽出)日本語訳スコア
MSC2a3 we retain the accuracy at 73.8%, while for METAB3 it slightly decreases from 75.4% to 73.1%. MSC2a3では精度は73.8%、METAB3では75.4%から73.1%にわずかに低下する。 0.67
Broader impact Since machine learning models have been shown to reinforce human biases embedded in training data, regulators and scientists alike are striving to propose novel regulations and algorithms to ensure the fairness of such models. 機械学習モデルがトレーニングデータに埋め込まれた人間のバイアスを強化することが示されているので、規制当局や科学者は、これらのモデルの公平性を確保するための新しい規制やアルゴリズムを提案しようとしている。 0.65
Consequently, data producers will likely be held accountable for any harms caused by algorithms operating on their data. その結果、データプロデューサは、データを操作するアルゴリズムによって引き起こされるあらゆる害に対して責任を負うことになる。
訳抜け防止モード: その結果、データプロデューサはおそらく保持される データを操作するアルゴリズムによって引き起こされる 損害に責任がある
0.82
To avoid such outcomes, data producers can leverage our method to learn fair data representations that are guaranteed to be non-discriminatory regardless of the concrete downstream usecase. このような結果を避けるために,データ生成者は,具体的下流のユースケースによらず差別的でないことが保証される公平なデータ表現を学習するために,我々の手法を利用することができる。 0.55
In such a setting, the data regulators, who already require the use of appropriate statistical principles [19], would create a regulatory framework for the density estimation necessary to apply our approach in practice. このような状況下では、すでに適切な統計原則[19]の使用を必要とするデータ規制機関は、我々のアプローチを実際に適用するのに必要な密度推定のための規制枠組みを作成します。 0.76
However, data regulators would need to take great care when formulating such legislation since the potential negative effects of poor density estimates are still largely unexplored, both in the context of our work and in the broader field. しかし、密度の低い推定の潜在的な負の効果は、我々の仕事の文脈とより広い分野の両方において、まだほとんど解明されていないため、データ規制当局がそのような法律を定式化する際には、大きな注意を払う必要がある。
訳抜け防止モード: しかし、データ規制機関は必要だろう このような法律を定式化する際 密度の低い推定の潜在的な負の効果は いまだに明らかにされていないからです 仕事の文脈でも より広い分野でも
0.63
Any data producer using our method would then be able to guarantee fairness. 私たちのメソッドを使用するデータプロデューサは、公正性を保証することができます。 0.60
7 Conclusion We introduced Fair Normalizing Flows (FNF), a new method for learning representations which ensure that no adversary can predict sensitive attributes. 7 結論 そこで我々はfreat normalizing flow(fnf)を導入した。freat normalizing flowは、敵が敏感な属性を予測できないような表現を学習する新しい手法だ。 0.59
This guarantee is stronger than prior work which only considers adversaries from a restricted model family. この保証は、制限されたモデルファミリーの敵のみを考慮する以前の作業よりも強い。 0.71
The key idea is to use an encoder based on normalizing flows which allows computing the exact likelihood in the latent space, given an estimate of the input density. 鍵となるアイデアは、入力密度の推定を前提に、潜在空間の正確な可能性を計算することができる正規化フローに基づくエンコーダを使用することである。 0.79
Our experimental evaluation on several datasets showed that FNF is flexible and can effectively enforce fairness without significantly sacrificing utility, while simultaneously allowing interpreting the learned representations and transferring to unseen tasks. いくつかのデータセットに対する実験により、FNFは柔軟であり、有用性を著しく犠牲にすることなく効果的に公正性を発揮でき、同時に学習した表現を解釈し、未知のタスクに転送できることがわかった。 0.52
References [1] Tim Brennan, William Dieterich, and Beate Ehret. 参考文献 ティム・ブレンナン(Tim Brennan)、ウィリアム・ディートリヒ(William Dieterich)、ビート・エレット(Beate Ehret)。 0.57
Evaluating the predictive validity of the compas risk and needs assessment system. 予測妥当性の評価 コンパスリスクと 必要なアセスメントシステム 0.61
Criminal Justice and Behavior, 2009. 2009年 刑事裁判と行動。 0.67
[2] Amir E Khandani, Adlar J Kim, and Andrew W Lo. [2] amir e khandani、adlar j kim、andrew w lo。 0.57
Consumer credit-risk models via machine- 機械による消費者信用リスクモデル 0.66
learning algorithms. Journal of Banking & Finance, 2010. 学習アルゴリズム。 銀行・金融雑誌、2010年。 0.67
[3] Solon Barocas and Andrew D. Selbst. ソロン・バロカスとアンドリュー・d・セルブスト。 0.37
Big data’s disparate impact. ビッグデータの影響はさまざまだ。 0.77
California Law Review, カリフォルニア州法務局。 0.51
2016. [4] Harrison Edwards and Amos J. Storkey. 2016. 4] ハリソン・エドワーズと エイモス・j・ストーキー 0.73
Censoring representations with an adversary. 敵で表現を検閲する。 0.64
In 4th International Conference on Learning Representations, 2016. 4日 2016年、国際学習表象会議。 0.63
[5] David Madras, Elliot Creager, Toniann Pitassi, and Richard S. Zemel. David Madras氏、Elliot Creager氏、Toniann Pitassi氏、Richard S. Zemel氏。 0.67
Learning adversarially fair and transferable representations. 逆向きに公平で伝達可能な表現を学習する。 0.38
In Proceedings of the 35th International Conference on Machine Learning, 2018. 第35回In Proceedings of the 35th International Conference on Machine Learning, 2018 0.88
[6] Qizhe Xie, Zihang Dai, Yulun Du, Eduard H. Hovy, and Graham Neubig. [6]Qizhe Xie、Zihang Dai、Yulun Du、Eduard H. Hovy、Graham Neubig。 0.66
Controllable invariance through adversarial feature learning. 敵対的特徴学習による制御可能な不変性 0.64
In Advances in Neural Information Processing Systems 30, 2017. 2017年3月30日 神経情報処理システムの進歩について 0.65
[7] Jiaming Song, Pratyusha Kalluri, Aditya Grover, Shengjia Zhao, and Stefano Ermon. [7]Jiming Song, Pratyusha Kalluri, Aditya Grover, Shengjia Zhao, Stefano Ermon。 0.66
Learning controllable fair representations. 制御可能な公正表現の学習。 0.54
In The 22nd International Conference on Artificial Intelligence and Statistics, 2019. 第22回人工知能と統計に関する国際会議、2019年。 0.74
[8] Proteek Chandan Roy and Vishnu Naresh Boddeti. 8]Chandan RoyとVishnu Naresh Boddeti。 0.51
Mitigating information leakage in image representations: A maximum entropy approach. 画像表現における情報の漏洩の緩和: 最大エントロピーアプローチ。 0.82
In IEEE Conference on Computer Vision and Pattern Recognition, 2019. 2019年のIEEE Conference on Computer Vision and Pattern Recognitionで発表された。 0.71
[9] Jiachun Liao, Chong Huang, Peter Kairouz, and Lalitha Sankar. 9]Jiachun Liao、Cong Huang、Peter Kairouz、Lalitha Sankar。 0.61
Learning generative adversarial representations (GAP) under fairness and censoring constraints. 公正性と検閲制約の下でGAP(generative adversarial representation)を学習する。 0.60
CoRR, abs/1910.00411, 2019. CoRR, abs/1910.00411, 2019。 0.72
[10] Ayush Jaiswal, Daniel Moyer, Greg Ver Steeg, Wael AbdAlmageed, and Premkumar Natarajan. Ayush Jaiswal氏、Daniel Moyer氏、Greg Ver Steeg氏、Wael AbdAlmageed氏、Premkumar Natarajan氏。 0.72
Invariant representations through adversarial forgetting. 逆忘れることによる不変表現。 0.45
In The Thirty-Fourth AAAI Conference on Artificial Intelligence, 2020. 第34回 aaai conference on artificial intelligence, 2020 参加報告 0.67
10 10 0.85
英語(論文から抽出)日本語訳スコア
[11] Rui Feng, Yang Yang, Yuehan Lyu, Chenhao Tan, Yizhou Sun, and Chunping Wang. 〔11〕李文、陽陽、雄陽、陳陽、陽州寸、忠平王 0.45
Learning fair representations via an adversarial framework. 学習 敵の枠組みによる公正な表現 0.67
CoRR, abs/1904.13341, 2019. CoRR, abs/1904.13341, 2019 0.78
[12] Daniel Moyer, Shuyang Gao, Rob Brekelmans, Aram Galstyan, and Greg Ver Steeg. Daniel Moyer氏、Shuyang Gao氏、Rob Brekelmans氏、Aram Galstyan氏、Greg Ver Steeg氏。 0.76
Invariant representations without adversarial training. 逆訓練のない不変表現。 0.64
In Advances in Neural Information Processing Systems 31, 2018. 2018年3月31日 神経情報処理システムの進歩について 0.67
[13] Yanai Elazar and Yoav Goldberg. 13] ヤナイ・エラザールと ヨアヴ・ゴールドバーグ 0.27
Adversarial removal of demographic attributes from text In Proceedings of the 2018 Conference on Empirical Methods in Natural Language 自然言語における経験的手法に関する2018年コンファレンスにおけるテキストからの人口属性の相反的除去 0.67
data. Processing, 2018. データだ 2018年、プロセッシング。 0.68
[14] Yilun Xu, Shengjia Zhao, Jiaming Song, Russell Stewart, and Stefano Ermon. 14]Yilun Xu、Shengjia Zhao、Jiming Song、Russell Stewart、Stefano Ermon。 0.64
A theory of usable information under computational constraints. 計算制約下における有用情報の理論 0.81
In 8th International Conference on Learning Representations, 2020. 第8回「学習表現に関する国際会議」開催。 0.60
[15] Umang Gupta, Aaron Ferber, Bistra Dilkina, and Greg Ver Steeg. 15] Umang Gupta, Aaron Ferber, Bistra Dilkina, Greg Ver Steeg。 0.68
Controllable guarantees for fair outcomes via contrastive information estimation. 制御可能な保証 対照的な情報推定による 公正な結果です 0.70
CoRR, abs/2101.04108, 2021. CoRR, abs/2101.04108, 2021。 0.71
[16] Congzheng Song and Vitaly Shmatikov. [16]Congzheng SongとVitaly Shmatikov。 0.71
Overlearning reveals sensitive attributes. 過剰学習は繊細な属性を明らかにする。 0.39
In 8th Inter- national Conference on Learning Representations, 2020. 第8回 インター- 全国学習代表大会、2020年。 0.60
[17] Meredith Whittaker, Kate Crawford, Roel Dobbe, Genevieve Fried, Elizabeth Kaziunas, Varoon Mathur, Sarah Mysers West, Rashida Richardson, Jason Schultz, and Oscar Schwartz. Meredith Whittaker氏、Kate Crawford氏、Roel Dobbe氏、Genevieve Fried氏、Elizabeth Kaziunas氏、Varoon Mathur氏、Sarah Mysers West氏、Rashida Richardson氏、Jason Schultz氏、Oscar Schwartz氏。 0.75
AI now report 2018. AIが2018年を報告。 0.68
AI Now Institute at New York University New York, 2018. 2018年、ニューヨーク大学でAI Now Instituteを開設。 0.71
[18] High-Level Expert Group on Artificial Intelligence. [18]人工知能の高レベルエキスパートグループ。 0.76
Ethics guidelines for trustworthy ai, 2019. 信頼できるaiの倫理ガイドライン2019。 0.50
[19] Federal Trade Commission. 連邦取引委員会(Federal Trade Commission) 0.57
Using artificial intelligence and algorithms, 2020. 2020年 人工知能とアルゴリズムを使って 0.74
URL https://www.ftc.gov/ news-events/blogs/bu siness-blog/2020/04/ using-artificial-int elligence-algorithms . URL https://www.ftc.gov/ news-events/blogs/bu siness-blog/2020/04/ using-artificial-int elligence-algorithms 。 0.51
[20] Proposal for a Regulation laying down harmonised rules on artificial intelligence. [20]人工知能の調和ルールを規定する規制の提案 0.61
European commission, 2021. ヨーロッパ 委員会 2021 0.64
[21] Federal Trade and https://www.ftc.gov/ news-events/blogs/bu siness-blog/2021/04/ aiming-truth-fairnes s-equity-your-compan ys-use-ai. 連邦[21] 貿易 そして、https://www.ftc.gov/ news-events/blogs/bu siness-blogs/2021/04 /aiming-truth-fairne ss-equity-your-compa nys-use-ai。 0.55
company’s company (複数形 companys) 0.42
2021. equity 2021. equity 0.85
in use of イン 利用 ですから 0.61
ai, Commission. your エイ! 委員会だ あなたの 0.55
Aiming for truth, 狙う ですから 真実だ 0.55
fairness, URL [22] Danilo Jimenez Rezende and Shakir Mohamed. 公平さ、URL Danilo Jimenez Rezende氏とShakir Mohamed氏。 0.63
Variational inference with normalizing flows. 正規化流れによる変分推論 0.69
In Proceedings of the 32nd International Conference on Machine Learning, 2015. 2015年、第32回機械学習国際会議を開催。 0.69
[23] Cynthia Dwork, Moritz Hardt, Toniann Pitassi, Omer Reingold, and Richard S. Zemel. Cynthia Dwork氏、Moritz Hardt氏、Toniann Pitassi氏、Omer Reingold氏、Richard S. Zemel氏。 0.73
Fair- ness through awareness. フェア 意識を通した感覚。 0.54
In Innovations in Theoretical Computer Science 2012, 2012. 2012年、Innovations in Theory Computer Science 2012に参加。 0.84
[24] Moritz Hardt, Eric Price, and Nati Srebro. [24] Moritz Hardt、Eric Price、Nati Srebro。 0.71
Equality of opportunity in supervised learning. 教師付き学習における機会の平等。 0.61
In Advances in Neural Information Processing Systems 29, 2016. 院 2016年3月29日 神経情報処理システムの進歩 0.60
[25] Richard S. Zemel, Yu Wu, Kevin Swersky, Toniann Pitassi, and Cynthia Dwork. Richard S. Zemel氏、Yu Wu氏、Kevin Swersky氏、Toniann Pitassi氏、Cynthia Dwork氏。 0.73
Learning fair representations. In Proceedings of the 30th International Conference on Machine Learning, 2013. 公正な表現を学ぶ。 第30回機械学習国際会議に参加して 0.53
[26] Daniel McNamara, Cheng Soon Ong, and Robert C. Williamson. 26]ダニエル・マクナマラ、チェン・オン、ロバート・c・ウィリアムソン。 0.63
Costs and benefits of fair representation learning. 公平な表現学習のコストとメリット。 0.64
In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, 2019. 2019 AAAI/ACM Conference on AI, Ethics, and Society, 2019の成果。 0.79
[27] Toshihiro Kamishima, Shotaro Akaho, and Jun Sakuma. [27]上島俊広、赤穂松太郎、佐久間順 0.43
Fairness-aware learning through reg- フェアネス-regによる認識学習- 0.43
ularization approach. In Data Mining Workshops (ICDMW), 2011. 正規化アプローチ Data Mining Workshops (ICDMW)、2011年。 0.56
[28] Muhammad Bilal Zafar, Isabel Valera, Manuel Gomez-Rodriguez, and Krishna P. Gummadi. [28]Muhammad Bilal Zafar、Isabel Valera、Manuel Gomez-Rodriguez、Krishna P. Gummadi。 0.76
Fairness constraints: Mechanisms for fair classification. 公平性の制約:公平な分類のメカニズム。 0.72
In Proceedings of the 20th International Conference on Artificial Intelligence and Statistics, 2017. 2017年の第20回人工知能・統計国際会議に参加。 0.62
[29] Christos Louizos, Kevin Swersky, Yujia Li, Max Welling, and Richard S. Zemel. Christos Louizos氏、Kevin Swersky氏、Yujia Li氏、Max Welling氏、Richard S. Zemel氏。 0.68
The varia- tional fair autoencoder. ヴァリア- 配偶者フェアオートエンコーダー。 0.41
In 4th International Conference on Learning Representations, 2016. 第4回「学習表現に関する国際会議」開催。 0.68
11 11 0.85
英語(論文から抽出)日本語訳スコア
[30] Elliot Creager, David Madras, Jörn-Henrik Jacobsen, Marissa A. Weis, Kevin Swersky, Toniann Pitassi, and Richard S. Zemel. Elliot Creager氏、David Madras氏、Jörn-Henrik Jacobsen氏、Marissa A. Weis氏、Kevin Swersky氏、Toniann Pitassi氏、Richard S. Zemel氏。 0.80
Flexibly fair representation learning by disentanglement. 絡み合いによる柔軟に公平な表現学習。 0.58
In Proceedings of the 36th International Conference on Machine Learning, 2019. 第36回In Proceedings of the 36th International Conference on Machine Learning, 2019 0.87
[31] Francesco Locatello, Gabriele Abbati, Thomas Rainforth, Stefan Bauer, Bernhard Schölkopf, and Olivier Bachem. [31]Francesco Locatello, Gabriele Abbati, Thomas Rainforth, Stefan Bauer, Bernhard Schölkopf, Olivier Bachem。 0.74
On the fairness of disentangled representations. 非交叉表現の公平性について 0.37
In Advances in Neural Information Processing Systems 32, 2019. ニューラル情報処理システム32, 2019の進歩 0.55
[32] Philips George John, Deepak Vijaykeerthy, and Diptikalyan Saha. 32]philips george john、deepak vijaykeerthy、diptikalyan saha。 0.54
Verifying individual fairness in machine learning models. 機械学習モデルの個別公平性を検証する。 0.69
In Proceedings of the Thirty-Sixth Conference on Uncertainty in Artificial Intelligence, 2020. 第36回人工知能不確実性会議(2020年)で開催。 0.62
[33] Caterina Urban, Maria Christakis, Valentin Wüstholz, and Fuyuan Zhang. 33] ケータリーナ・アーバン、マリア・クリスタキス、ヴァレンティン・ヴュストホルツ、フユアン・ザング 0.40
Perfectly parallel fairness certification of neural networks. 完全に平行 ニューラルネットワークのフェアネス認定。 0.70
Proc. ACM Program. Proc ACMプログラム。 0.65
Lang., 2020. ラング、2020年。 0.72
[34] Anian Ruoss, Mislav Balunovic, Marc Fischer, and Martin T. Vechev. [34]Anian Ruoss、Mislav Balunovic、Marc Fischer、Martin T. Vechev。 0.76
Learning certified individually fair representations. 個別に公正な表現を学習する。 0.48
In Advances in Neural Information Processing Systems 33, 2020. 2020年 神経情報処理システム33号の進歩です 0.66
[35] Cynthia Dwork, Frank McSherry, Kobbi Nissim, and Adam D. Smith. Cynthia Dwork氏、Frank McSherry氏、Kobbi Nissim氏、Adam D. Smith氏。 0.72
Calibrating noise to sensitivity in private data analysis. 騒音の校正 プライベートデータ分析における感度。 0.73
In Third Theory of Cryptography Conference, 2006. 第3回暗号理論会議2006に参加。 0.75
[36] Matthew Jagielski, Michael J. Kearns, Jieming Mao, Alina Oprea, Aaron Roth, Saeed SharifiMalvajerdi, and Jonathan R. Ullman. Matthew Jagielski, Michael J. Kearns, Jieming Mao, Alina Oprea, Aaron Roth, Saeed SharifiMalvajerdi, そしてJonathan R. Ullman。 0.75
Differentially private fair learning. 個別の公平な学習です 0.67
In Proceedings of the 36th International Conference on Machine Learning, 2019. 第36回In Proceedings of the 36th International Conference on Machine Learning, 2019 0.87
[37] Aws Albarghouthi, Loris D’Antoni, Samuel Drews, and Aditya V. Nori. [37]Aws Albarghouthi、Loris D’Antoni、Samuel Drews、Aditya V. Nori。 0.70
Fairsquare: proba- Fairsquare: Proba- 0.83
bilistic verification of program fairness. プログラムフェアネスの ビリスティック検証 0.50
Proc. ACM Program. Proc ACMプログラム。 0.65
Lang., 2017. 2017年、Lang。 0.82
[38] Osbert Bastani, Xin Zhang, and Armando Solar-Lezama. [38]Osbert Bastani、Xin Zhang、Armando Solar-Lezama。 0.71
Probabilistic verification of fairness properties via concentration. 公平性の確率的検証 濃縮による特性。 0.75
Proc. ACM Program. Proc ACMプログラム。 0.65
Lang., 2019. ラング、2019年。 0.61
[39] Shahar Segal, Yossi Adi, Benny Pinkas, Carsten Baum, Chaya Ganesh, and Joseph Keshet. 39]Shahar Segal, Yossi Adi, Benny Pinkas, Carsten Baum, Chaya Ganesh, Joseph Keshet。 0.69
Fairness in the eyes of the data: Certifying machine-learning models. データの目における公平性: 機械学習モデルの証明。 0.80
CoRR, abs/2009.01534, 2020. CoRR, abs/2009.01534, 2020 0.77
[40] Laurent Dinh, David Krueger, and Yoshua Bengio. 40]Laurent Dinh、David Krueger、Yoshua Bengio。 0.60
NICE: non-linear independent components NICE:非線形独立成分 0.91
estimation. In 3rd International Conference on Learning Representations, 2015. 見積。 2015年、第3回国際学習表現会議に参加。 0.65
[41] Laurent Dinh, Jascha Sohl-Dickstein, and Samy Bengio. Laurent Dinh, Jascha Sohl-Dickstein, Samy Bengio 0.52
Density estimation using real NVP. 実NVPを用いた密度推定 0.84
CoRR, 2016. 2016年、CoRR。 0.88
[42] Diederik P. Kingma and Prafulla Dhariwal. [42]Diederik P. KingmaとPrafla Dhariwal。 0.78
Glow: Generative flow with invertible 1x1 convo- Glow: 可逆1x1コンボによる生成フロー 0.71
lutions. In Advances in Neural Information Processing Systems 31, 2018. 誘惑だ 2018年3月31日 神経情報処理システムの進歩について 0.54
[43] Diederik P. Kingma and Max Welling. 43]Diederik P. KingmaとMax Welling。 0.74
Auto-encoding variational bayes. 自動エンコーディング変分ベイズ。 0.67
In 2nd International 第2回国際会議において 0.37
Conference on Learning Representations, 2014. 2014年「学習表象会議」開催。 0.74
[44] Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron C. Courville, and Yoshua Bengio. Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron C. Courville, Yoshua Bengio 0.79
Generative adversarial nets. In Advances in Neural Information Processing Systems 27, 2014. 敵ネットの生成。 2014年3月27日 神経情報処理システムの進歩について 0.65
[45] Hugo Berard, Gauthier Gidel, Amjad Almahairi, Pascal Vincent, and Simon Lacoste-Julien. Hugo Berard氏、Gauthier Gidel氏、Amjad Almahairi氏、Pascal Vincent氏、Simon La Coste-Julien氏。 0.75
A closer look at the optimization landscapes of generative adversarial networks. A 生成的敵ネットワークの最適化の展望をよく見てみよう。 0.75
2020. [46] Moritz Hardt and Eric Price. 2020. [46]モリッツ・ハードとエリック・プライス 0.65
Tight bounds for learning a mixture of two gaussians. 2つのガウスの混合物を学ぶための厳密な境界。 0.54
In Rocco A. Servedio and Ronitt Rubinfeld, editors, Proceedings of the Forty-Seventh Annual ACM on Symposium on Theory of Computing, 2015. Rocco A. Servedio and Ronitt Rubinfeld, editors, Proceedings of the 40-Seventh Annual ACM on Symposium on Computing, 2015 (英語) 0.80
[47] Heinrich Jiang. [47]ハインリヒ・ジャン。 0.52
Uniform convergence rates for kernel density estimation. カーネル密度推定のための均一収束率 0.78
In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, 2017. doina precup and yee whye teh, editors, proceedings of the 34th international conference on machine learning, 2017 (英語) 0.79
[48] Aäron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew W. Senior, and Koray Kavukcuoglu. Aäron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew W. Senior, Koray Kavukcuoglu
訳抜け防止モード: [48 ]Aäron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner Andrew W. Senior, and Koray Kavukcuoglu
0.80
Wavenet: A generative model for raw audio. Wavenet: 生オーディオのための生成モデル。 0.81
In The 9th ISCA Speech Synthesis Workshop, 2016. 2016年、第9回ISCA音声合成ワークショップに参加。 0.71
12 12 0.85
英語(論文から抽出)日本語訳スコア
[49] Aäron van den Oord, Nal Kalchbrenner, and Koray Kavukcuoglu. 49] Aäron van den Oord, Nal Kalchbrenner, Koray Kavukcuoglu 0.59
Pixel recurrent neural net- ピクセルリカレントニューラルネット- 0.79
works. In Proceedings of the 33nd International Conference on Machine Learning, 2016. 作品。 2016年、第33回機械学習国際会議が開催された。 0.69
[50] Aäron van den Oord, Nal Kalchbrenner, Lasse Espeholt, Koray Kavukcuoglu, Oriol Vinyals, and Alex Graves. Aäron van den Oord, Nal Kalchbrenner, Lasse Espeholt, Koray Kavukcuoglu, Oriol Vinyals, Alex Graves。
訳抜け防止モード: 50 ] Aäron van den Oord, Nal Kalchbrenner, Lasse Espeholt, Koray Kavukcuoglu、Oriol Vinyals、Alex Graves。
0.73
Conditional image generation with pixelcnn decoders. pixelcnnデコーダを用いた条件付き画像生成 0.80
In Advances in Neural Information Processing Systems 29, 2016. 2016年3月29日 神経情報処理システムの進歩について 0.63
[51] Mathieu Germain, Karol Gregor, Iain Murray, and Hugo Larochelle. 51] Mathieu Germain, Karol Gregor, Iain Murray, Hugo Larochelle。 0.70
MADE: masked autoenIn Proceedings of the 32nd International Conference on MADE: masked autoen第32回国際会議に参加して 0.91
coder for distribution estimation. 分布推定のためのコーダ 0.83
Machine Learning, 2015. 2015年、機械学習。 0.84
[52] Eric Wong and J. Zico Kolter. [52]エリック・ウォンとj・ジコ・コルター 0.51
Learning perturbation sets for robust machine learning. 堅牢な機械学習のための摂動学習セット。 0.69
CoRR, abs/2007.08450, 2020. CoRR abs/2007.08450, 2020 0.57
[53] Tommi Vatanen, Mikael Kuusela, Eric Malmi, Tapani Raiko, Timo Aaltonen, and Yoshikazu Nagai. 53]Tommi Vatanen, Mikael Kuusela, Eric Malmi, Tapani Raiko, Timo Aaltonen, Nagai Yoshikazu 0.68
Semi-supervised detection of collective anomalies with an application in high energy particle physics. 高エネルギー粒子物理学における集団異常の半教師付き検出 0.70
In The 2012 International Joint Conference on Neural Networks (IJCNN), 2012. 2012年、international joint conference on neural networks (ijcnn) で発表された。 0.73
[54] Van Loi Cao, Miguel Nicolau, and James McDermott. 54]ヴァン・ロイ・カオ、ミゲル・ニコラウ、ジェームズ・マクダーモット 0.62
One-class classification for anomaly detection with kernel density estimation and genetic programming. カーネル密度推定と遺伝的プログラムを用いた異常検出の一クラス分類 0.84
In Genetic Programming19th European Conference, 2016. 遺伝子プログラミング第19回欧州会議2016参加報告 0.71
[55] Kaan Gökcesu and Suleyman Serdar Kozat. [55]Kaan GökcesuとSuleyman Serdar Kozat。 0.78
Online anomaly detection with minimax optimal minimax最適化によるオンライン異常検出 0.73
density estimation in nonstationary environments. 非定常環境における密度推定 0.81
IEEE Trans. IEEE Trans。 0.82
Signal Process., 2018. 信号処理、2018年。 0.73
[56] Stanislav Pidhorskyi, Ranya Almohsen, and Gianfranco Doretto. 56] Stanislav Pidhorskyi, Ranya Almohsen, Gianfranco Doretto。 0.63
Generative probabilistic novelty detection with adversarial autoencoders. 対向オートエンコーダを用いた生成確率的ノベルティ検出 0.66
In Advances in Neural Information Processing Systems 31, 2018. 2018年3月31日 神経情報処理システムの進歩について 0.67
[57] Weiming Hu, Jun Gao, Bing Li, Ou Wu, Junping Du, and Stephen J. Maybank. [57]Weiming Hu、Jun Gao、Bing Li、Ou Wu、Junping Du、Stephen J. Maybank 0.68
Anomaly IEEE Trans. Anomaly IEEE Trans 0.64
detection using local kernel density estimation and context-based regression. 局所カーネル密度推定とコンテキストベース回帰を用いた検出 0.77
Knowl. Data Eng., 2020. 知っている。 2020年のデータ。 0.60
[58] Benjamin Nachman and David Shih. 58] ベンジャミン・ナックマンと デビッド・シー 0.57
Anomaly detection with density estimation. 密度推定による異常検出 0.68
Phys. Rev. D, 2020. Phys Rev 2020年。 0.54
[59] Dit-Yan Yeung and Yuxin Ding. 59]Dit-Yan YeungとYuxin Ding。 0.77
Host-based intrusion detection using dynamic and static be- 動的および静的なbeを用いたホストベース侵入検出 0.74
havioral models. Pattern Recognit., 2003. 実物モデル。 パターン認識、2003年。 0.65
[60] Salvatore J. Stolfo, Frank Apap, Eleazar Eskin, Katherine A. Heller, Shlomo Hershkop, Andrew Honig, and Krysta M. Svore. [60] Salvatore J. Stolfo, Frank Apap, Eleazar Eskin, Katherine A. Heller, Shlomo Hershkop, Andrew Honig, Krysta M. Svore。 0.87
A comparative evaluation of two algorithms for windows registry anomaly detection. ウィンドウレジストリ異常検出のための2つのアルゴリズムの比較評価 0.88
J. Comput. Secur., 2005. J.Comput 2005年、デビュー。 0.68
[61] David A. Clifton, Peter R. Bannister, and Lionel Tarassenko. デイヴィッド・A・クリフトン、ピーター・R・バニスター、ライオネル・タラスセンコ。 0.49
A framework for novelty detec- 新規デテックの枠組み- 0.74
tion in jet engine vibration data. ジェットエンジンの振動データにおける比重 0.77
In Damage Assessment of Structures VII, 2007. 2007年、第7次構造損傷評価。 0.69
[62] V. Lämsä and T. Raiko. [62] V. Lämsä と T. ライコ。 0.86
Novelty detection by nonlinear factor analysis for structural health monitoring. 構造健康モニタリングのための非線形因子解析による新規性検出 0.77
In 2010 IEEE International Workshop on Machine Learning for Signal Processing, 2010. 2010年、IEEE International Workshop on Machine Learning for Signal Processing, 2010 に参加。 0.88
[63] Sameer Singh and M. Markou. [63]Sameer Singh と M. Markou 0.76
An approach to novelty detection applied to the classification 分類に適用した新奇性検出へのアプローチ 0.90
of image regions. IEEE Transactions on Knowledge and Data Engineering, 2004. 画像の領域です IEEE Transactions on Knowledge and Data Engineering 2004(英語) 0.72
[64] Ramin Ramezani, Plamen Angelov, and Xiaowei Zhou. [64]Ramin Ramezani、Plamen Angelov、Xiaowei Zhou。 0.65
A fast approach to novelty detection in video streams using recursive density estimation. 再帰的密度推定を用いたビデオストリームの新奇性検出の高速化 0.74
In 2008 4th International IEEE Conference Intelligent Systems, 2008. 2008年 第4回ieee conference intelligent systems 2008参加報告 0.72
[65] Dheeru Dua and Casey Graff. [65]Dheeru DuaとCasey Graff。 0.76
UCI machine learning repository, 2017. UCI機械学習レポジトリ、2017年。 0.79
[66] Julia Angwin, Jeff Larson, Surya Mattu, and Lauren Kirchner. Julia Angwin氏、Jeff Larson氏、Surya Mattu氏、Lauren Kirchner氏。 0.66
Machine bias, 2016. 2016年、機械バイアス。 0.75
[67] F. Linda Wightman. F・リンダ・ワイトマン(F. Linda Wightman)。 0.51
LSAC national longitudinal bar passage study, 2017. LSAC National longitudinal bar passage study, 2017。 0.79
[68] Health heritage prize. [68]健康遺産賞. 0.78
URL https://www.kaggle.c om/c/hhp. URL https://www.kaggle.c om/c/hhp 0.47
13 13 0.85
英語(論文から抽出)日本語訳スコア
[69] Aditya Krishna Menon and Robert C. Williamson. アディティア・クリシュナ・メノンとロバート・C・ウィリアムソン。 0.54
The cost of fairness in binary classification. 二項分類における公平性のコスト。 0.72
In Conference on Fairness, Accountability and Transparency, 2018. 2018年、公正、説明責任、透明性に関する会議。 0.68
[70] Han Zhao and Geoffrey J. Gordon. [70]Han ZhaoとGeoffrey J. Gordon。 0.84
Inherent tradeoffs in learning fair representations. 公平な表現を学ぶ上で固有のトレードオフ。 0.38
2019. [71] Yuzi He, Keith Burghardt, and Kristina Lerman. 2019. [71]Yuzi He, Keith Burghardt, Kristina Lerman。 0.77
Learning fair and interpretable representations 公正かつ解釈可能な表現の学習 0.62
via linear orthogonalization. 線形直交化によるものです 0.59
CoRR, abs/1910.12854, 2019. CoRR, abs/1910.12854, 2019。 0.72
[72] Thomas Kehrenberg, Myles Bartlett, Oliver Thomas, and Novi Quadrianto. 72]トマス・カーレンバーグ、マイルズ・バートレット、オリバー・トーマス、ノヴィ・クアドリアント 0.57
Null-sampling for interpretable and fair representations. 解釈可能かつ公正な表現のためのnullサンプリング。 0.48
In Computer Vision - ECCV 2020 - 16th European Conference, 2020. In Computer Vision - ECCV 2020 - 16th European Conference, 2020 0.82
[73] Tianhao Wang, Zana Buçinca, and Zilin Ma. [73]Tianhao Wang、Zana Buçinca、Zilin Ma。 0.53
Learning interpretable fair representations. 解釈可能な公平な表現を学ぶ。 0.50
2021. [74] Laurens van der Maaten and Geoffrey Hinton. 2021. [74] Laurens van der MaatenとGeoffrey Hinton。 0.80
Visualizing data using t-sne. t-sneによるデータの可視化 0.51
Journal of Machine Journal of Machine 0.85
Learning Research, 2008. 2008年、研究科卒業。 0.64
[75] James MacQueen. ジェームズ・マックイーン(James MacQueen)。 0.69
Some methods for classification and analysis of multivariate observations. 多変量観測の分類と解析のためのいくつかの方法 0.71
In Proceedings of the fifth Berkeley symposium on mathematical statistics and probability, 1967. 数学統計学と確率に関する第5回バークレーシンポジウム、1967年。 0.71
[76] Stuart P. Lloyd. スチュアート・P・ロイド(Stuart P. Lloyd) 0.43
Least squares quantization in PCM. PCMにおける最小2乗量子化 0.64
IEEE Trans. IEEE Trans。 0.82
Inf. Theory, 1982. Inf 1982年、理論。 0.67
[77] Suresh Venkatasubramanian and Mark Alfano. 77]Suresh VenkatasubramanianとMark Alfano。 0.61
The philosophical basis of algorithmic recourse. アルゴリズム的会話の哲学的基礎。 0.69
In Conference on Fairness, Accountability, and Transparency, 2020. 2020年、公正、説明責任、透明性に関する会議。 0.73
[78] Shubham Sharma, Jette Henderson, and Joydeep Ghosh. 78] Shubham Sharma、Jette Henderson、Joydeep Ghosh。 0.64
CERTIFAI: A common framework In CERTIFAI: 共通のフレームワーク 0.67
to provide explanations and analyse the fairness and robustness of black-box models. ブラックボックスモデルの公正性と堅牢性を説明および分析する。 0.73
AAAI/ACM Conference on AI, Ethics, and Society, 2020. AAAI/ACM Conference on AI, Ethics, and Society, 2020 0.87
[79] Xin Zhang, Armando Solar-Lezama, and Rishabh Singh. [79]Xin Zhang、Armando Solar-Lezama、Rishabh Singh。 0.73
Interpreting neural network judgments via minimal, stable, and symbolic corrections. 最小、安定、シンボリック補正によるニューラルネットワーク判断の解釈。 0.64
In Advances in Neural Information Processing Systems 31, 2018. 2018年3月31日 神経情報処理システムの進歩について 0.67
[80] Berk Ustun, Alexander Spangher, and Yang Liu. [80]Berk Ustun、Alexander Spangher、Yang Liu。 0.59
Actionable recourse in linear classification. 線形分類における行動可能な帰納法。 0.54
In Proceedings of the Conference on Fairness, Accountability, and Transparency, 2019. 2019年「公正、説明責任、透明性に関する会議」に参加。 0.68
[81] Rafael Poyiadzi, Kacper Sokol, Raúl Santos-Rodríguez, Tijl De Bie, and Peter A. Flach. Lafael Poyiadzi, Kacper Sokol, Raúl Santos-Rodríguez, Tijl De Bie, Peter A. Flach 0.61
FACE: feasible and actionable counterfactual explanations. FACE: 実現可能で実行可能な対実的説明。 0.58
In AAAI/ACM Conference on AI, Ethics, and Society, 2020. AAAI/ACM Conference on AI, Ethics, and Society, 2020 に参加。 0.88
[82] Amir-Hossein Karimi, Bernhard Schölkopf, and Isabel Valera. [82]Amir-Hossein Karimi、Bernhard Schölkopf、Isabel Valera。 0.67
Algorithmic recourse: from counterfactual explanations to interventions. アルゴリズム論: 反実的な説明から介入まで。 0.67
In ACM Conference on Fairness, Accountability, and Transparency, 2021. acm conference on fairness, accountability, and transparencyで、2021年。 0.69
[83] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Köpf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. 83]Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Köpf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, Soumith Chintala。 0.81
Pytorch: An imperative style, highperformance deep learning library. Pytorch: 命令型で高性能なディープラーニングライブラリです。 0.77
In Advances in Neural Information Processing Systems 32, 2019. ニューラル情報処理システム32, 2019の進歩 0.55
[84] Diederik P. Kingma and Jimmy Ba. [84]Diederik P. KingmaとJimmy Ba 0.78
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
In 3rd International Conference on Learning Representations, 2015. 第三に 2015年、国際学習表象会議。 0.69
[85] Flaticon.com. [85] flaticon.com 0.92
Image, 2021. 14 画像、2021年。 14 0.78
英語(論文から抽出)日本語訳スコア
A Proofs Here we present proofs of the theorems used in the paper. 証明 ここでは、論文で用いられる定理の証明を示す。 0.55
Proof of Lemma 5.1 Lemma 5.1の証明 0.76
Proof. We first bound statistical distance using triangle inequality and then apply Hoeffding’s inequality on individual terms: 証明。 まず、三角不等式を用いて統計距離を限定し、次にhoeffdingの不等式を個々の項に適用する。 0.57
∆(Z0, Z1) = sup s(Z0, Z1) = sup 0.76
[µ(z)] − E [μ(z)] − E 0.76
z∼Z0 z∼Z1 µ (cid:12)(cid:12) E µ (cid:12)(cid:12) E ゼズ0 ザイズ1 μ (cid:12)(cid:12) E μ (cid:12)(cid:12) E 0.55
z∼Z0 = sup ≤ (cid:12)(cid:12) E ゼズ0 =sup ≤ (cid:12)(cid:12) E 0.66
z∼Z0 [µ(z)] − ゼズ0 [μ(z)]- 0.51
≤ ˆ∆(Z0, Z1) + ǫ ≤ >(Z0, Z1) + > 0.84
n [µ(z)](cid:12)(cid:12) Xi=1 µ(zi n [μ(z)](cid:12)(cid:12)Xi=1 μ(zi) 0.87
µ(zi [µ(z)] − μ(zi) [μ(z)]- 0.72
1 n 0) + 1 n 1n 0) + 1n 0.78
n Xi=1 µ(zi n Xi=1 μ(zi) 0.79
0) − 1 n 1 n 0) − 1n 1n 0.78
n Xi=1 0)(cid:12)(cid:12) + ˆ∆(Z0, Z1) +(cid:12)(cid:12) n Xi=1 0)(cid:12)(cid:12) + (z0, z1) + (cid:12)(cid:12) 0.75
1 n n Xi=1 n 1n n Xi=1 n 0.76
Xi=1 µ(zi Xi=1 μ(zi) 0.73
µ(zi 1) + μ(zi) 1) + 0.88
1) − E z∼Z1 1 n 1)-E ザイズ1 1n 0.55
n Xi=1 [µ(z)](cid:12)(cid:12) n Xi=1[μ(z)](cid:12)(cid:12) 0.88
µ(zi 1) − E μ(zi) 1)-E 0.74
z∼Z1 [µ(z)](cid:12)(cid:12) ザイズ1 [μ(z)](cid:12)(cid:12) 0.66
where Hoeffding’s inequality guarantees that with probability at least 1 − 2 exp(−nǫ2/2) first and last summand are at most ǫ/2. ホッフィングの不等式は、確率が少なくとも 1 − 2 exp(−n\2/2) であることを保証する。 0.68
Proof of Theorem 5.3 Theorem 5.3の証明 0.80
Proof. Note that: max(0, pZ0(z) − pZ1 (z)) ≤ |pZ0(z) − ˆpZ0(z)| + max(0, ˆpZ0(z) − ˆpZ1 (z)) + |ˆpZ1 (z) − pZ1 (z)| 証明。 注意: max(0, pZ0(z) − pZ1(z)) ≤ |pZ0(z) − >pZ0(z)| + max(0, >pZ0(z) − >pZ1(z)) + |>pZ1(z) − pZ1(z)| 0.66
Integrating both sides yields: ∆(pZ0 , pZ1) ≤ T V (pZ0 (z), ˆpZ0 (z)) + ∆(ˆpZ0 , ˆpZ1 ) + T V (pZ1(z), ˆpZ1 (z)) 双方を統合すると シュ(pZ0 , pZ1) ≤ T V (pZ0 (z) ) ≤ T V (pZ0 (z) , shpZ0 (z)) + T V (pZ1(z) ) + T V (pZ1(z) ) 0.69
≤ ∆(ˆpZ0 , ˆpZ1 ) + ǫ Here last inequality follows from the fact that (ˆpZa (z) − pZa (z))dz = (ˆpa(x) − pa(x))dx and thus T V (ˆpa, pa) = T V (ˆpZa , pZa) < ǫ/2 for a ∈ {0, 1}. ≤ ここでの最後の不等式は、 (pZa (z) − pZa (z))dz = (spa(x) − pa(x))dx であり、従って T V (spa, pa) = T V (spZa , pZa) < sh/2 for a ∈ {0, 1} である。 0.44
Proof of Lemma 5.2 Lemma 5.2の証明 0.75
Proof. Without loss of generality we can assume that f0(xk) = xk. 証明。 一般性を失うことなく、f0(xk) = xk と仮定できる。 0.69
Assume that f1(x) = y and f1(x′) = y′ where p0(x) < p0(x′) and p1(y) > p1(y′). f1(x) = y と f1(x′) = y′ ここで p0(x) < p0(x′) と p1(y) > p1(y′) と仮定する。 0.86
Let d1 = |p0(x) − p1(y)| + |p0(x′) − p1(y′)| and d2 = |p0(x) − p1(y′)| + |p0(x′) − p1(y)|. d1 = |p0(x) − p1(y)| + |p0(x′) − p1(y′)| および d2 = |p0(x) − p1(y′)| + |p0(x′) − p1(y)| とする。 0.85
In the case when p1(y) ≤ p0(x) or p1(y′) ≥ p0(x) it is easy to show that d1 = d2. p1(y) ≤ p0(x) あるいは p1(y′) ≥ p0(x) の場合、d1 = d2 であることが容易に分かる。 0.90
Now, in the case when p0(x) < p1(y′) < p0(x) < p1(y), we can see that d2 ≤ d1 − (p0(x) − p1(y′)) < d1. さて、p0(x) < p1(y′) < p0(x) < p1(y) の場合、d2 ≤ d1 − (p0(x) − p1(y′)) < d1 となる。 0.89
Similarly, when p0(x) < p1(y′) < p1(y) < p0(x), we can see that d2 ≤ d1 − (p1(y) − p1(y′)) < d1. 同様に、p0(x) < p1(y′) < p1(y) < p0(x) は d2 ≤ d1 − (p1(y) − p1(y′)) < d1 となる。 0.93
In all cases, d2 ≤ d1, which means that if we swap f1(x) and f1(x′) total variation either decreases or stays the same. すべての場合、d2 ≤ d1 であり、f1(x) と f1(x′) の合計変動が減少するか、同じ状態に留まることを意味する。 0.74
We can repeatedly swap such pairs, and once there are no more swaps to do, we arrive at the condition of the lemma where two arrays are sorted the same way. このようなペアを繰り返し交換することができ、スワップがなくなったら、2つの配列が同じ方法でソートされるような補題の条件に到達します。 0.75
B Experimental Setup In this section, we provide the full specification of our experimental setup. B 実験装置 この節では、実験的なセットアップの完全な仕様を提供する。 0.69
We first discuss the datasets considered and the corresponding preprocessing methods employed. まず,検討したデータセットと,それに対応する事前処理手法について議論する。 0.56
We empirically validate that our preprocessing maintains high accuracy on the respective prediction tasks. 予備処理が各予測タスクに対して高い精度を維持することを実証的に検証する。 0.63
Finally, we specify the hyperparameters and computing resources for the experiments in Section 6. 最後に、実験のためのハイパーパラメータと計算リソースをセクション6で指定する。 0.78
15 15 0.85
英語(論文から抽出)日本語訳スコア
Table 2: Statistics for train, validation, and test datasets. 表2: トレイン、バリデーション、テストデータセットの統計。 0.70
attribute (a) distributions are highly skewed, which is why we report balanced accuracy. 属性(a)分布は非常に歪んでいるため、バランスのとれた精度を報告します。 0.66
In general, the label (y) and sensitive 一般に、ラベル(y)と敏感な 0.71
ADULT COMPAS CRIME 大人 コンパス 犯罪 0.49
HEALTH LAW TRAIN VALIDATION TEST 健康 LAW 列車の検証試験 0.67
TRAIN VALIDATION TEST TRAIN VALIDATION TEST 列車の検証試験 列車の検証試験 0.55
TRAIN VALIDATION TEST TRAIN VALIDATION TEST 列車の検証試験 列車の検証試験 0.55
B.1 Datasets B.1 データセット 0.52
SIZE 24 129 6033 15 060 サイズ 24 129 6033 15 060 0.74
3377 845 1056 3377 845 1056 0.85
1276 319 399 1276 319 399 0.85
139 785 34 947 43 683 139 785 34 947 43 683 0.85
55 053 13 764 17 205 55 053 13 764 17 205 0.85
a = 1 y = 1 | a = 0 a = 1 y = 1 | a = 0 0.85
y = 1 | a = 1 y = 1 | a = 1 0.85
32.6% 31.9% 32.6% 32.6% 31.9% 32.6% 0.63
60.6% 60.0% 58.9% 60.6% 60.0% 58.9% 0.63
42.3% 40.8% 43.1% 42.3% 40.8% 43.1% 0.63
35.7% 35.6% 35.4% 35.7% 35.6% 35.4% 0.63
18.0% 17.5% 17.5% 18.0% 17.5% 17.5% 0.63
28.5% 28.3% 27.9% 28.5% 28.3% 27.9% 0.63
60.9% 60.1% 61.8% 60.9% 60.1% 61.8% 0.63
71.3% 78.8% 74.9% 71.3% 78.8% 74.9% 0.63
79.0% 79.3% 78.8% 79.0% 79.3% 78.8% 0.63
28.5% 28.3% 27.9% 28.5% 28.3% 27.9% 0.63
21.6% 19.9% 19.1% 21.6% 19.9% 19.1% 0.63
46.8% 46.9% 51.3% 46.8% 46.9% 51.3% 0.63
17.8% 21.5% 16.3% 17.8% 21.5% 16.3% 0.63
48.3% 49.2% 48.3% 48.3% 49.2% 48.3% 0.63
21.6% 19.9% 19.1% 21.6% 19.9% 19.1% 0.63
y = 1 24.9% 24.9% 24.6% y = 1 24.9% 24.9% 24.6% 0.74
52.3% 52.2% 55.6% 52.3% 52.2% 55.6% 0.63
48.7% 55.5% 49.6% 48.7% 55.5% 49.6% 0.63
68.0% 68.6% 68.0% 68.0% 68.6% 68.0% 0.63
27.3% 26.8% 26.3% 27.3% 26.8% 26.3% 0.63
We consider five commonly studied datasets from the fairness literature: Adult and Crime from the UCI machine learning repository [65], Compas [1], Law School [67], and the Health Heritage Prize [68] dataset. uci machine learning repository [65], compas [1], law school [67], health heritage prize [68] の5つのデータセットについて検討した。
訳抜け防止モード: フェアネス文献からよく研究される5つのデータセットについて考察する : UCI機械学習レポジトリからの成人と犯罪 [65] Compas [ 1 ], Law School [67 ] そして、Health Heritage Prize[68]データセット。
0.79
Below, we briefly introduce each of these datasets and discuss whether they contain personally identifiable information, if applicable. 以下に、これらのデータセットについて簡単に紹介し、適用可能かどうかの個人識別情報を含むかどうかを議論する。 0.46
We preprocess Adult and Compas into categorical datasets by discretizing continuous features, keeping the other datasets as continuous. 連続した特徴を識別し、他のデータセットを連続的に保持することで、アダルトとコンパスを分類データセットにプリプロセスします。 0.52
We drop rows and columns with missing values. 値が欠けている行と列をドロップします。 0.64
For each dataset, we first split the data into training and test set, using the original splits wherever possible and a 80% / 20% split of the original dataset otherwise. 各データセットに対して、まずデータをトレーニングとテストセットに分割し、可能な限りオリジナルの分割と、それ以外はオリジナルのデータセットの80%/20%の分割を使用しています。 0.66
We then further sample 20% of the training set to be used as validation set. 次に、バリデーションセットとして使用するトレーニングセットの20%をさらにサンプルします。 0.65
Table 2 displays the dataset statistics for each of these splits. 表2は、これらの分割ごとにデータセット統計を表示する。 0.70
Finally, we drop uninformative features to facilitate density estimation. 最後に,不均一な特徴を取り除き,密度推定を容易にする。 0.50
We show that the removal of these features does not significantly affect the predictive utility of the data in Table 3. これらの特徴の除去が表3におけるデータの予測実用性に大きく影響しないことを示す。 0.86
Adult The Adult dataset, also known as Census Income dataset, was extracted from the 1994 Census database by Barry Becker and is provided by the UCI machine learning repository [65]. 成人データセットは、Census Income datasetとしても知られ、1994年の国勢調査データベースからBarry Becker氏によって抽出され、UCI機械学習レポジトリ [65]によって提供されている。 0.68
It contains 14 attributes: age, workclass, fnlwgt, education, education-num, marital-status, occupation, relationship, race, sex, capital-gain, capital-loss, hours-per-week, and native-country. 年齢、職業階級、fnlwgt、教育、教育数、婚姻統計、職業、関係、人種、性、資本ゲイン、資本不足、週毎時間、ネイティブカントリーの14の属性を含んでいる。 0.68
The prediction task is to determine whether a person makes over 50 000 US dollars per year. 予測課題は、人が年間50万ドル以上を稼いでいるかどうかを決定することである。
訳抜け防止モード: 予測タスクは 人が年間50万ドル以上を稼いでいるかどうかを判断する。
0.69
We consider sex as the protected attribute, and we discretize the dataset by keeping only the categorical columns relationship, workclass, marital-status, race, occupation, education-num, and education. 性別を保護属性として考慮し,分類コラム関係,ワーククラス,配偶者統計,人種,職業,教育数値,教育のみを保持することにより,データセットを識別する。 0.75
Compas The Compas [1] dataset was procured by ProPublica, and contains the criminal history, jail and prison time, demographics, and COMPAS risk scores for defendants from Broward County from 2012 and 2013. Compas The Compas [1]データセットはProPublicaが入手し、2012年と2013年のブロワード郡の被告に対する犯罪歴、刑務所と刑務所の時間、人口統計、およびCompASリスクスコアを含んでいる。 0.67
Through a public records request, ProPublica obtained two years worth of COMPAS scores (18 610 people) from the Broward County Sheriff’s Office in Florida. ProPublicaは、公開記録の要求により、フロリダ州のブロワード郡保安官事務所から2年間のCompASスコア(18,610人)を得た。 0.73
This data was then augmented with public criminal records from the Broward County Clerk’s Office website. このデータはブロワード郡事務官事務所のウェブサイトから公開犯罪記録と共に更新された。 0.69
Furthermore, jail records were obtained from the Browards County Sheriff’s Office, and public incarceration records were downloaded from the Florida Department of Corrections website. さらにブロワード郡保安官事務所から監獄記録が入手され、フロリダ州矯正省ウェブサイトから公開監獄記録がダウンロードされた。 0.68
The task consists of predicting recidivsm within two years for all individuals. このタスクは、すべての個人に対して2年以内にrecidivsmを予測することで構成される。 0.45
We only consider Caucasian 我々はコーカサスのみを考える 0.45
16 16 0.85
英語(論文から抽出)日本語訳スコア
Table 3: Classification accuracy before and after removing uninformative features during preprocessing. 表3:前処理中に非形式的特徴を取り除く前後の分類精度。 0.71
For each dataset we train a multi-layer perceptron (MLP) with the same architecture on the original and preprocessed data and report the average accuracy with standard deviation for five different random seeds. 各データセットに対して、原データと前処理データに同じアーキテクチャを持つ多層パーセプトロン(MLP)をトレーニングし、5つの異なるランダムシードに対する標準偏差で平均精度を報告する。 0.79
We can observe that the accuracy only decreases slightly after preprocessing. 前処理後にのみ精度がわずかに低下することが観察できる。 0.69
ACCURACY (%) ACCURACY (%) 0.85
ORIGINAL PREPROCESSED 85.0 (± 0.001) 65.3 (± 0.003) 85.5 (± 0.003) 80.1 (± 0.002) 88.2 (± 0.006) オリジナル 前処理 85.0 (± 0.001) 65.3 (± 0.003) 85.5 (± 0.003) 80.1 (± 0.002) 88.2 (± 0.006) 0.56
84.4 (± 0.001) 65.0 (± 0.003) 85.2 (± 0.004) 76.1 (± 0.001) 86.4 (± 0.001) 84.4 (± 0.001) 65.0 (± 0.003) 85.2 (± 0.004) 76.1 (± 0.001) 86.4 (± 0.001) 0.66
ADULT COMPAS CRIME HEALTH LAW and African-American individuals and use race as the protected attribute. 成人犯罪保健法 アフリカ系アメリカ人の個人と人種を保護された属性として使用します。 0.47
We discretize the continuous features age, diff-custody, diff-jail, and priors-count, and we remove all other features except for sex, c-charge-degree, and v-score-text. 我々は、連続特徴年齢、差分カストディ、差分ジャイユ、および先行数を識別し、性別、c-charge-degree、v-score-textを除く全ての特徴を除去する。 0.55
Crime The Communities and Crime dataset combines socio-economic data from the 1990 US Census, law enforcement data from the 1990 US LEMAS survey, and crime data from the 1995 FBI UCR. 犯罪 コミュニティと犯罪データセットは、1990年の国勢調査の社会経済データ、1990年のus lemas調査の法執行データ、1995年のfbi ucrの犯罪データを組み合わせたものである。 0.74
It was created by Michael Redmond and is provided by the UCI machine learning repository [65]. Michael Redmond氏によって作成され、UCI機械学習リポジトリ [65] によって提供されている。 0.67
The dataset contains 128 attributes such as county, population, per capita income, and number of immigrants. データセットには郡、人口、一人当たりの収入、移民の数など128の属性が含まれている。 0.73
The task consists of predicting whether the number of violent crimes per population for a given community is above or below the median. このタスクは、あるコミュニティの人口当たりの暴力犯罪数が中央値以上であるかどうかを予測することである。 0.72
We consider race as the protected attribute, which we set to 1 if the percentage of white people divided by 5 is smaller than the percentage of black, asian, and hispanic individuals, and to 0 otherwise. 我々は、人種を保護属性とみなし、白人の比率が黒人、アジア人、ヒスパニック人の割合より小さいと1に設定し、それ以外は0に設定した。 0.63
We keep the following 6 features: racePctWhite, pctWInvInc, PctFam2Par, PctKids2Par, PctYoungKids2Par, PctKidsBornNeverMar. racePctWhite, pctWInvInc, PctFam2Par, PctKids2Par, PctYoungKids2Par, PctKidsBornNeverMar。 0.67
Health The Health dataset was created for the Heritage Health Prize [68] competition on Kaggle and contains medical records of over 55 000 patients. Health The Healthのデータセットは、KaggleのHealth Health Prize[68]コンペのために作成され、55万人の患者の医療記録を含んでいる。 0.69
We consider the merged claims, drug count, lab count, and members sheets, which have a total of 18 attributes. 統合されたクレーム、薬物数、ラボ数、および合計18の属性を持つメンバーシートについて検討する。
訳抜け防止モード: 我々は、統合された主張、薬物数、実験室数を考える。 メンバーシートには 合計18の属性があります
0.65
The identitiy of individual patients and health care providers, as well as other individual identifiable information, has been removed from the datasets to protect the privacy of those involved and to comply with applicable law. 個々の患者や医療提供者の身元や、その他の個人識別可能な情報は、関連する患者のプライバシーを保護し、適用法に従うためにデータセットから削除されている。 0.72
We consider age as the protected attribute, which we binarize to patients above and below 60 years. 我々は,60歳以下の患者に対して,年齢を保護的属性とみなす。 0.76
The task is to predict the maximum Charlson Comordbidity Index, which predicts 10-year survival in patients with multiple comorbities. この課題は、複数のコンコービティを持つ患者において10年生存を予測できる最大Charlson Comordbidity Indexを予測することである。 0.69
We drop all but the following features: DrugCount-total, DrugCount-months, no-Claims, no-Providers, PayDelay-total, PrimaryConditionGrou p, Specialty, ProcedureGroup, and PlaceSvc. DrugCount-total, DrugCount- Months, no-Claims, no-Providers, PayDelay-total, primaryConditionGrou p, Specialty, procedureGroup, PlaceSvc。 0.74
For the transfer learning experiments we follow Madras et al [5] and omit the primary condition group labels from the set of features and try to predict them from the latent representation without explicitly optimizing for the task. 転送学習実験では,madrasら [5] に従って,機能セットからプライマリ条件グループラベルを省略し,タスクを明示的に最適化することなく潜在表現から予測を試みる。 0.71
Law School The Law School [67] dataset contains admissions data from 25 law schools over the 2005, 2006, and in some cases 2007 admission cycles, providing information on over 100 000 individual applications. 法学校 法学校 [67] データセットには、2005年、2006年、そして2007年の入学サイクルにおける25の法学校からの入学データが含まれており、100万以上の個人アプリケーションに関する情報を提供している。 0.65
The data was procured by Project SEAPHE and was cleaned to adhere to high standards of data privacy. データはProject SEAPHEによって取得され、データプライバシの高い標準に従うためにクリーン化された。 0.72
Concretely, when the school, race, year, and gender information for enrolled students produced cells of fewer than five subjects, the cells were combined to minimize reidentification risk. 具体的には、入学した学生の学校、人種、年、性別情報が5人未満の細胞を産生すると、細胞が組み合わされて再同定リスクが最小となる。 0.69
The attributes are law school, year of fall term, LSAT score, undergraduate GPA, race, gender, and in-state residency. その属性は、ロースクール、秋の年、lsatスコア、学部生のgpa、人種、性別、州内居住権である。 0.65
We consider race as the protected attribute, which we binarize to white and non-white. 私たちは人種を保護属性と考え、白と非白に二元化します。 0.72
We remove all features but the LSAT score, undergraduate GPA, and the college to which the student applied (ordered by decreasing admission rate). LSATスコア,大学院生のGPA,学生が申請した大学(受験率の低下)を除くすべての特徴を除去する。 0.71
B.2 Training details b.2 トレーニングの詳細 0.62
Our code is implemented in PyTorch [83]. 私たちのコードはPyTorch[83]で実装されています。 0.52
17 17 0.85
英語(論文から抽出)日本語訳スコア
(a) Demographic parity (a)デモグラフィー・パリティ 0.63
(b) Equalized odds (c) Equal opportunity (b)等化オッズ (c)平等な機会 0.79
Figure 8: Tradeoff between accuracy and various fairness metrics (demographic parity, equalized odds, equal opportunity) when using Fair Normalizing Flows (FNF). 図8: 公正正規化フロー(fnf)を使用する場合、精度と様々な公平度メトリクス(デポジットパリティ、等化オッズ、等機会)とのトレードオフ。 0.72
Computing resources We run all experiments on a desktop PC using a single GeForce RTX 2080 Ti GPU and 16-core Intel(R) Core(TM) i9-9900K CPU @ 3.60GHz. コンピューティングリソース GeForce RTX 2080 Ti GPUと16コアIntel(R) Core(TM) i9-9900K CPU @ 3.60GHzを使用して、デスクトップPC上ですべての実験を実行する。 0.81
Hyperparameters for main experiments For Crime we estimate input density using Gaussian Mixture Model (GMM) with 4 components for a = 0 and 2 components for a = 1. 主実験のハイパーパラメータ 犯罪では、a = 0 の4成分と a = 1 の2成分のガウス混合モデル(GMM)を用いて入力密度を推定する。 0.81
For Law we use GMM with 8 components for both groups. 法律では、両方のグループに8つのコンポーネントを持つGMMを使用します。 0.61
Health dataset requires more complex density estimation so we use RealNVP [41] with 4 blocks of 20 neurons each. 健康データセットはより複雑な密度推定を必要とするため、それぞれ20個のニューロンの4ブロックからなる realnvp [41] を使用する。 0.65
For categorical datasets, Adult and Compas, we perform density estimation using MADE [51], which is represented using network of 2 hidden layers with 50 neurons. アダルトとコンパスというカテゴリのデータセットでは、50個のニューロンを含む2つの隠れ層からなるネットワークで表現されるmake [51]を用いて密度推定を行う。 0.63
We represent flow encoders using RealNVP with 4 blocks for Crime and Law, and 6 blocks for Health. 犯罪と法のために4ブロック、健康のために6ブロックのRealNVPを用いてフローエンコーダを表現する。 0.64
Crime and Law use batch size 128, initial learning rate 0.01 and weight decay 0.0001, while Health uses batch size 256, initial learning rate 0.001 and weight decay 0. 犯罪と法はバッチサイズ128、初期学習率0.01、体重崩壊0.0001、Healthはバッチサイズ256、初期学習率0.001、体重崩壊0。 0.69
Training is performed using Adam [84] optimizer. Adam[84]オプティマイザを使用してトレーニングを行う。 0.58
We use 60, 100, and 80 epochs for Crime, Law and Health, respectively. 犯罪、法律、健康にはそれぞれ60歳、100歳、80歳が使われています。 0.67
These parameters were chosen based on the performance on validation set. これらのパラメータは検証セットのパフォーマンスに基づいて選択された。 0.74
For experiments in Fig 4, we trained with the following 5 values for γ for respective datasets: 0, 0.02, 0.1, 0.2, 0.9 for Crime, 0, 0.001, 0.02, 0.1, 0.9 for Law, 0, 0.05, 0.1, 0.5, 0.95 for Health. 図4の実験では、各データセットのγについて、0, 0.02, 0.1, 0.2, 0.9 for Crime, 0, 0.001, 0.02, 0.1, 0.9 for Law, 0, 0.05, 0.1, 0.5, 0.95の5つの値をトレーニングした。 0.70
Training for 1 epoch takes around 1 second for Crime, 5 seconds for Law, and 30 seconds for Health. 1エポックの訓練は犯罪に約1秒、法律に5秒、健康に30秒かかる。
訳抜け防止モード: 1エポックの訓練は、犯罪で約1秒、法律で5秒かかる。 健康には30秒かかります
0.67
C Additional Experiments In this section we present additional experimental results. C型追加実験 本節では,さらなる実験結果を示す。 0.79
While in Section 6 we focused on presenting results on statistical distance, as it can bound various fairness metrics, here we provide more detailed experiments with demographic parity, equalized odds and equal opportunity. 第6節では,様々なフェアネスの指標を束縛できるため,統計的距離に関する結果の提示に重点を置いているが,ここでは,人口統計学的パーティ,等化オッズ,等化オッズ,等化機会に関するより詳細な実験を行う。 0.59
Fig 8 shows the tradeoff between these metrics and accuracy. fig 8は、これらの測定値と精度のトレードオフを示している。 0.58
18 18 0.85
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。