論文の概要、ライセンス

# (参考訳) 機械学習の共通性に向けて: アイデンティティの増大、低表現の扱い、評価の実施 [全文訳有]

Towards Intersectionality in Machine Learning: Including More Identities, Handling Underrepresentation, and Performing Evaluation ( http://arxiv.org/abs/2205.04610v1 )

ライセンス: CC BY 4.0
Angelina Wang and Vikram V. Ramaswamy and Olga Russakovsky(参考訳) 機械学習の公平性の研究は歴史的に1つの2進分類属性と見なされてきたが、現実ははるかに複雑である。 本研究では,(1)データセットラベルとして含める属性,(2)モデルトレーニング中のサブグループの漸進的に小さいサイズを扱う方法,(3)ベンチマークモデルがより多くのサブグループに対して公平である場合に,既存の評価基準を超越する方法,の3つの段階において,機械学習パイプラインの3つの段階に沿って生じる疑問を提起する。 それぞれの質問に対して,米国国勢調査から派生した表型データセットの徹底した実証的評価を行い,機械学習コミュニティに構築的勧告を与える。 まず、どの属性ラベルをトレーニングするかを選択する際に、各属性の完全なセットを常に評価しながら、ドメイン知識を実証的検証で補うことを提唱する。 第2に、規範的含意を考慮せずにデータ不均衡技術の使用を警告し、データ構造を用いた代替案を提案する。 第3に,交差点設定に適した新しい評価指標を導入する。 全体として、機械学習に交叉性を組み込む際に必要となる3つの(十分ではない!

Research in machine learning fairness has historically considered a single binary demographic attribute; however, the reality is of course far more complicated. In this work, we grapple with questions that arise along three stages of the machine learning pipeline when incorporating intersectionality as multiple demographic attributes: (1) which demographic attributes to include as dataset labels, (2) how to handle the progressively smaller size of subgroups during model training, and (3) how to move beyond existing evaluation metrics when benchmarking model fairness for more subgroups. For each question, we provide thorough empirical evaluation on tabular datasets derived from the US Census, and present constructive recommendations for the machine learning community. First, we advocate for supplementing domain knowledge with empirical validation when choosing which demographic attribute labels to train on, while always evaluating on the full set of demographic attributes. Second, we warn against using data imbalance techniques without considering their normative implications and suggest an alternative using the structure in the data. Third, we introduce new evaluation metrics which are more appropriate for the intersectional setting. Overall, we provide substantive suggestions on three necessary (albeit not sufficient!) considerations when incorporating intersectionality into machine learning.
公開日: Tue, 10 May 2022 01:00:52 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] G L . s c [ ] G L。 sc [ 0.47
1 v 0 1 6 4 0 1 v 0 1 6 4 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Towards Intersectionality in Machine Learning: Including More Identities, Handling Underrepresentation, and Performing Evaluation 機械学習の共通性に向けて: アイデンティティの増大、低表現の扱い、評価の実施 0.59
ANGELINA WANG, Princeton University, USA VIKRAM V. RAMASWAMY, Princeton University, USA OLGA RUSSAKOVSKY, Princeton University, USA プリンストン大学アンゲリナワング VIKRAM V. RAMASWAMY, Princeton University, USA OLGA RUSSAKOVSKY, Princeton University, USA 0.68
Research in machine learning fairness has historically considered a single binary demographic attribute; however, the reality is of course far more complicated. 機械学習の公平性の研究は歴史的に1つの2進分類属性と見なされてきたが、現実ははるかに複雑である。 0.62
In this work, we grapple with questions that arise along three stages of the machine learning pipeline when incorporating intersectionality as multiple demographic attributes: (1) which demographic attributes to include as dataset labels, (2) how to handle the progressively smaller size of subgroups during model training, and (3) how to move beyond existing evaluation metrics when benchmarking model fairness for more subgroups. 本研究では,(1)データセットラベルとして含める属性,(2)モデルトレーニング中のサブグループの漸進的に小さいサイズを扱う方法,(3)ベンチマークモデルがより多くのサブグループに対して公平である場合に,既存の評価基準を超越する方法,の3つの段階において,機械学習パイプラインの3つの段階に沿って生じる疑問を提起する。 0.79
For each question, we provide thorough empirical evaluation on tabular datasets derived from the US Census, and present constructive recommendations for the machine learning community. それぞれの質問に対して,米国国勢調査から派生した表型データセットの徹底した実証的評価を行い,機械学習コミュニティに構築的勧告を与える。 0.67
First, we advocate for supplementing domain knowledge with empirical validation when choosing which demographic attribute labels to train on, while always evaluating on the full set of demographic attributes. まず、どの属性ラベルをトレーニングするかを選択する際に、各属性の完全なセットを常に評価しながら、ドメイン知識を実証的検証で補うことを提唱する。 0.53
Second, we warn against using data imbalance techniques without considering their normative implications and suggest an alternative using the structure in the data. 第2に、規範的含意を考慮せずにデータ不均衡技術の使用を警告し、データ構造を用いた代替案を提案する。 0.71
Third, we introduce new evaluation metrics which are more appropriate for the intersectional setting. 第3に,交差点設定に適した新しい評価指標を導入する。 0.68
Overall, we provide substantive suggestions on three necessary (albeit not sufficient!) considerations when incorporating intersectionality into machine learning. 全体として、機械学習に交叉性を組み込む際に必要となる3つの(十分ではない! 0.66
CCS Concepts: • Social and professional topics → User characteristics; • Computing methodologies → Machine learning approaches. CCS概念: • 社会的・専門的なトピック → ユーザ特性; • コンピューティング方法論 → 機械学習アプローチ 0.90
ACM Reference Format: Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky. ACM参照フォーマット:Angelina Wang、Vikram V. Ramaswamy、Olga Russakovsky。 0.70
2022. Towards Intersectionality in Machine Learning: Including More Identities, Handling Underrepresentation, and Performing Evaluation. 2022. 機械学習における断続性をめざす: より多くのアイデンティティ、表現の扱い、そして評価を行う。 0.49
In 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22), June 21–24, 2022, Seoul, Republic of Korea. 2022年6月21-24日、大韓民国ソウルの公正、説明責任、透明性に関するACM会議(FAccT'22)。 0.73
ACM, New York, NY, USA, 20 pages. ACM, New York, NY, USA, 20ページ。 0.79
https://doi.org/10.1 145/ 3531146.3533101 https://doi.org/10.1 145/3531146.3533101 0.18
1 INTRODUCTION As machine learning is being adopted in an increasing number of applications, there is a growing awareness and concern that people of different demographic groups may be treated unfairly [65]. 1 イントロダクション 機械学習がアプリケーションの増加に採用されているため、異なる人口集団の人々が不公平に扱われる可能性があるという認識と懸念が高まっている [65]。 0.74
Measuring and mitigating these effects often require assigning individuals to demographic groups, and this is frequently done along one axis of identity at a time, e g , gender or race [42]. これらの効果の測定と緩和には、しばしば個人を人口統計グループに割り当てる必要があり、これは、例えば、性別、人種[42]の1つの軸に沿って行われる。 0.66
However, when drawing boundaries and selecting demographic groups, it is important to recognize the intersectional harms that result from interacting systems of oppression. しかし, 境界線を描き, 人口集団を選択する際には, 抑圧の相互作用によって生じる交叉害を認識することが重要である。 0.69
Crenshaw [26] first coined the term “intersectionality” by showing that Black women experience discrimination beyond being either Black or women. Crenshaw [26] は、黒人女性が黒人か女性以上の差別を受けることを示して、最初に "intersectionality&qu ot; という言葉を作った。 0.69
Intersectionality broadly refers to how different identities along different axes interact to produce unique forms of discrimination and societal effects [16, 24, 26].1 交叉性(intersectionality)とは、様々な軸に沿った異なるアイデンティティが相互作用し、独特の差別と社会的効果[16,24,26].1を生じさせる方法を指す。 0.62
There is a long history of considering intersectional harms in fields outside of computer science [9, 22–24, 52, 80, 90, 92, 98, 112, 115], and an urgent need to do so in machine learning 1There are complex nuances to this conceptualization that are out of scope of this work [98]. コンピュータ科学以外の分野における交叉障害(9, 22–24, 52, 80, 90, 92, 98, 112, 115]を考えるのには長い歴史があり、機械学習における緊急の必要性 1 この研究の範囲外であるこの概念化には複雑なニュアンスがある [98]。 0.78
Permission to make digital or hard copies of part or all of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. デジタル又はハード又はこの作品の一部又は全部を個人または教室で使用するための許可は、その複製が利益または商業上の利益のために作成、配布されず、かつ、この通知と第1ページの全引用を添付して、手数料なしで与えられる。
訳抜け防止モード: この作品の一部又は全部のデジタル又はハードコピーを個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.84
Copyrights for third-party components of this work must be honored. この作品のサードパーティコンポーネントの著作権を尊重しなければならない。 0.59
For all other uses, contact the owner/author(s). 他のすべての用途について、オーナー/著者に連絡してください。 0.47
© 2022 Copyright held by the owner/author(s). 第2022条 所有者/著者が保持する著作権。 0.60
Manuscript submitted to ACM ACMに提出された写本 0.63
1 1 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
fairness as well. For example, Kearns et al [76] perform experiments that show the algorithmic harms intersectional subgroups may experience due to heterogeneity within a particular demographic group, e g , Female. 公平さも 例えば、Kearns et al [76] は、交叉部分群が特定の階層群(例えば、女性)内で不均一性によって経験されるであろうアルゴリズム的害を示す実験を行う。 0.42
In other words, although a classifier may be fair with respect to gender, as well as race, it can be unfair with respect to the intersection of the groups, missing that, for example, Black Female and White Female may differ in substantial and meaningful ways [75]. 言い換えると、分類器は人種と同様に性別に関して公平であるが、集団の交点に関して不公平である可能性があり、例えば黒人の女性と白人女性は実質的かつ有意義な方法で異なる可能性がある [75]。 0.70
In this work, we focus on the algorithmic effects of discrimination against demographic subgroups (rather than individuals). 本研究では,集団集団(個人ではなく)に対する差別のアルゴリズム的効果に着目した。 0.78
Specifically, we conduct empirical studies of five fairness algorithms [2, 40, 69, 77, 121] across a suite of five tabular datasets derived from the US Census with target variables like income and travel time to work [31]. 具体的には,米国国勢調査から派生した5つの表型データセットに対して,5つの公平性アルゴリズム [2, 40, 69, 77, 121] について,収入や労働時間などの対象変数 [31] を用いて実証研究を行った。 0.72
We do so under the framework of the canonical machine learning fairness setting: supervised binary classification of a target label of social importance, which balances accuracy and one mathematical notion of fairness among a finite set of discretely defined demographic groups, which may result from a conjunction of identities.2 我々は、標準的な機械学習フェアネス設定の枠組みのもと、社会的重要性のターゲットラベルのバイナリ分類を監督する: 正確性と公平性の1つの数学的概念を、離散的に定義された人口集団の有限集合の中でバランスさせる。 0.73
We echo the calls of prior work to consider multiple axes of identities [40, 76], but in this work, focus on the next steps after someone has decided to consider intersectionality in their machine learning pipeline. 先行研究の呼び出しを反響させ、複数のアイデンティティの軸を考える [40, 76] が、この作業では、誰かが機械学習パイプラインで交叉性を検討することを決定した後、次のステップにフォーカスします。 0.68
In doing so, three core challenges emerge. そうすることで、3つの大きな課題が生まれます。 0.53
First, in the dataset stage, we need to select which identity labels to consider. まず、データセットの段階で、考慮すべきidラベルを選択する必要があります。 0.63
This is difficult because considering too many would be computationally intractable but considering too few may miss intersectional harms. これは、多すぎると計算が難しすぎるが、少なすぎると交叉障害を見逃す可能性があるため難しい。 0.65
Second, in the model training stage, we need to consider how to technically handle the progressively smaller number of individuals in each group that will result from adding additional identities and axes. 第二に、モデルトレーニングの段階では、各グループにおいて、追加のアイデンティティや軸を追加する結果となる、徐々に少人数の個人を技術的に扱う方法を検討する必要があります。 0.63
Finally, in the evaluation stage, we need to decide how we will perform fairness evaluation as the number of groups increases. 最後に,評価段階において,グループ数の増加に伴って公平性評価をどのように行うかを決定する必要がある。 0.75
There are seemingly straightforward ways to address each of these three questions. これら3つの質問に答える方法は、一見分かりやすい。 0.67
For example, one might consider as many axes of identity as they have access to in the data; handle smaller groups by drawing from machine learning techniques for imbalanced data such as generating synthetic examples of underrepresented groups [102, 105, 111]; and evaluate on more subgroups by generalizing existing fairness definitions, such as equal opportunity or demographic parity, through extrapolation [40, 77]. 例えば、データにアクセスできる限り多くのアイデンティティの軸を考慮し、不均衡なデータの機械学習技術から、不均衡なグループの合成例を生成する[102, 105, 111]などの、より小さなグループを扱い、外挿[40, 77]を通して、平等な機会や人口比率といった既存の公正の定義を一般化することにより、より多くのサブグループを評価する。 0.74
However, by treating intersectionality as simply an extension of the binary group setting to a multi-group one, these straightforward approaches fail to critically engage with the substantive differences that intersectionality brings. しかし、交叉性を単に多元群への二元群設定の拡張として扱うことにより、これらの素直なアプローチは交叉性がもたらした従属的な違いに批判的に関わらない。 0.62
Our contributions in this work are in meaningfully engaging with these three problems that arise along different stages of the machine learning pipeline: dataset selection, model training, and model evaluation. この作業への私たちのコントリビューションは、データセットの選択、モデルトレーニング、モデル評価という、機械学習パイプラインのさまざまな段階に沿って発生する3つの問題に、有意義に関わっています。 0.64
These come after the decision to consider intersectionality, and our concrete suggestions are as follows: これらは交叉性を検討するという決定に続き、具体的提案は次のとおりである。 0.57
(1) Selecting which identities to include (Sec. 4): due to the tenuous nature of operationalizing demographic categories we will need to supplement domain knowledge with empirical results in order to understand which identities to include in model training. 1)どのアイデンティティを含むべきかの選択(第4項): 分類の操作性が不安定であるため、モデルトレーニングに含めるべきアイデンティティを理解するためには、経験的結果でドメイン知識を補足する必要がある。 0.67
This applies not only to multiple axes, but also individual axes. これは多重軸だけでなく、個々の軸にも当てはまる。 0.74
For example, when considering the racial group Asian Pacific Islander, there are many potential granularities of identities to include, such as breaking the group up into its constituent ones of Hmong, Cambodian, etc. 例えば、アジア太平洋諸島の人種集団であるアジア太平洋島民を考えると、グループをフモン、カンボジアなどを構成するグループに分割するなど、多くの要素を含む可能性がある。 0.68
We show that, in a way that is hard to know a priori, different algorithms benefit from training on different levels of granularity. 我々は、優先順位を知るのが難しい方法で、異なるアルゴリズムが異なるレベルの粒度のトレーニングから恩恵を受けることを示す。 0.72
However, evaluation should generally be performed on as many demographic groups as are known.3 (2) Handling progressively smaller groups (Sec. 5): the more identities we consider, the smaller each group is likely to be. しかし、一般に評価は、一般に知られているように、人口統計学的グループで実施されるべきである。(2) 徐々に小さなグループを扱う(第5章)。
訳抜け防止モード: しかし、概して多くの人口集団で評価されるべきである。 知られている。 3。 (2) より小さなグループ( Sec . 5 )を扱うこと : よりアイデンティティを考える 集団が小さければ小さいほど
0.70
Normative concerns unrelated to the technical efficacy of data imbalance techniques can be enough to constrain or even disqualify their use; for example, harmful historical parallels connected to generating synthetic facial images can raise concerns. データ不均衡手法の技術的有効性に関係のない規範的な懸念は、それらの使用を制限したり、あるいは不適格にしたりするのに十分である。 0.55
We suggest a new path, hypothesizing that structure within intersectional data 交叉データ内の構造を仮定して 新しい経路を提案します 0.77
2We acknowledge that the group identity delineations themselves are unstable and fraught with problems of operationalization [61, 92]. 2我々は,グループ同一化自体が不安定であり,運用上の問題 [61, 92] を伴っていることを認めた。 0.61
3There are concerns regarding noisy measurements of small groups that are out of scope for our work; we refer the reader to Foulds et al [39]. 3 作業対象外である小集団の騒音測定に関する懸念があり,本論文の読者は Foulds et al [39] を参考にしている。 0.75
2 2 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
can be carefully exploited in very specific circumstances, such as by learning about statistical patterns in an underrepresented Black Female group from groups it might share characteristics with, like Black Male. 例えば、黒人の男性のような特徴を共有するグループから、表現不足の黒人女性グループの統計パターンを学習することで、非常に特定の状況において慎重に活用することができる。 0.71
(3) Evaluating a large number of groups (Sec. 6): commonly used pairwise comparisons for fairness evaluation can obscure important information when extrapolated and applied to a greater number of subgroups. (3) 多数のグループを評価する(第6章): フェアネス評価のためのペアワイズ比較は、多くのサブグループに外挿して適用した場合に重要な情報を曖昧にすることができる。 0.76
This precipitates a call for additional kinds of evaluation that measure considerations such as the reification of existing hierarchies amongst subgroups. このことは、サブグループ間の既存の階層の再構築のような考慮を測る追加の種類の評価を要求する。 0.72
For the algorithms and datasets we consider, we demonstrate that the ranking amongst subgroups for positive label base rates of the dataset is highly correlated with the rankings of true positive rates of the model predictions, even when training with fairness constraints. 提案するアルゴリズムとデータセットについて, 正のラベルベースレートに対するサブグループ間のランク付けは, 公正性制約のあるトレーニングであっても, モデル予測の正の確率のランク付けと高い相関関係があることを実証する。 0.80
These considerations are not unique to intersectionality, as they are liable to arise in any multi-attribute setting, but considering intersectionality sharply precipitates their importance. これらの考慮事項は交叉性に特有なものではなく、多属性の設定では生じやすいが、交叉性を考えるとその重要性は急激である。 0.52
We also note that despite the language we employ, we do not suggest that fairness can be treated as a purely algorithmic problem that neglects the sociotechnical frame [12, 50, 51, 109]. また,我々が採用している言語にもかかわらず,公平性は社会学的枠組み [12, 50, 51, 109] を無視した純粋にアルゴリズム的な問題として扱うことができるとは考えていない。 0.70
Like the limitation noted by recent work [31], our contributions are limited to the realm of intersectional algorithmic fairness, and not data-driven insights into societal intersectionality. 最近の研究[31]で指摘された制限と同様に、我々の貢献は交叉アルゴリズムの公平さの領域に限定されており、社会的な交叉性に対するデータ駆動的洞察ではない。 0.60
Intersectionality is frequently considered through qualitative rather than quantitative approaches [7] because of the flattening effect the latter has in treating groups as a monolith, so to an extent, quantitative studies will always be limited in this aspect. 間欠性は, 群をモノリスとして扱う場合の平坦化効果のため, 定量的アプローチよりも質的アプローチによって考慮されることが多い [7]。
訳抜け防止モード: 間欠性は, 群をモノリスとして扱う場合の平坦化効果のため, 定量的アプローチよりも定性的に考えることが多い [7 ]。 ある程度の量的な研究は 常にこの側面に限られます
0.77
2 RELATED WORK The canonical machine learning fairness paradigm frequently assumes binary attributes along a single axis [42]. 2 RELATED WORK 標準機械学習フェアネスパラダイムは、単一の軸[42]に沿ってバイナリ属性をしばしば仮定する。 0.79
For example, for the many algorithms that only work in this contrived setup, IBM’s AI Fairness 360 tool [10] formulates the binary attribute as White and Non-White, a trend sometimes shared by the social sciences that may conceptualize of social categories as dichotomous, e g , class as middle-class and poor, gender as men and women, and sexuality as heterosexual and homosexual [29]. 例えば、この構成でのみ動作する多くのアルゴリズムに対して、IBMのAI Fairness 360ツール[10]はバイナリ属性をホワイトとノンホワイトとして定式化します。
訳抜け防止モード: 例えば、この選択された設定でのみ動作する多くのアルゴリズムについて。 IBMのAI Fairness 360ツールは、バイナリ属性を白と非白と定式化します。 社会的カテゴリーを二分法として概念化する社会科学によって共有される傾向 例えば、中流階級、中流階級、貧乏階級、男女階級。 異性愛者や同性愛者としてのセクシュアリティです
0.73
To get a high-level look at how prevalent the problem of not considering intersectionality is, we look at a set of 26 popular machine learning fairness algorithm papers.4 交叉性を考慮しない問題がいかに広まるかを見極めるために、26の一般的な機械学習フェアネスアルゴリズムの論文を見てみよう。4。 0.66
Of these 26, only 16 can operate in a setting beyond binary attributes, and of those, only 7 report empirical results on multiple axes of identity. これらの26のうち、バイナリ属性以上の設定で操作できるのは16人であり、その中の7人だけが複数のアイデンティティの軸について経験的な結果を報告している。 0.49
Algorithmic fairness methods have begun to consider intersectional attributes beyond just one axis of identity [81, 117, 118, 124]. アルゴリズム的公平性法は1つの同一性軸[81, 117, 118, 124]以上の交叉属性を考慮し始めた。 0.77
Kearns et al [77] and Yang et al [121] offer learning methods for intersectional fairness, but weigh the fairness of each group by their frequency and thus downweigh underrepresented groups, which arguably should be the focus of intersectional fairness. kearns et al [77] と yang et al [121] は交叉的フェアネスの学習方法を提供しているが、各グループのフェアネスを頻度で重み付けているため、おそらく交叉的フェアネスの焦点であるはずの低表現群を軽視している。 0.66
Hebert-Johnson et al [59] learn a predictor for numerous overlapping demographic subgroups with a focus on calibration, and Foulds et al [40] propose an intersectional fairness regularizer that targets statistical parity. Hebert-Johnson et 59] は、キャリブレーションに焦点をあてた多くの重複する人口集団の予測器を学習し、Foulds et al [40] は統計パリティを対象とする交叉フェアネス正規化器を提案する。 0.68
Morina et al [96] propose a post-processing approach that generalizes that of Hardt et al [58], and Kim et al [79] similarly propose a post-processing approach as well as auditing procedure. morina et al [96] はhardt et al [58] を一般化した後処理アプローチを提案し、kim et al [79] も同様に後処理アプローチと監査手順を提案している。 0.85
Friedler et al [42] compare existing fairness methods, and consider intersectional sensitive attributes by encoding one axis of identity as race-sex.5 Friedler et al [42] は既存のフェアネス法を比較し、一軸のアイデンティティをレースセックス5として符号化することで交差感度特性を考察する。 0.54
Perhaps the most well-known of these works [59, 77] never use the word “intersectionality”, instead opting for the terms “fairness gerrymandering” and “computationally-iden tifiable masses.” もっともよく知られた作品(59, 77)は"intersectionality&qu ot;という言葉を決して使用せず、代わりに"fairness gerrymandering"と"computationally-iden tifiable mass"という用語を選んだ。 0.76
Both works make important and impressive technical progress in generalizing algorithms for the intersectional setting, but by not explicitly naming “intersectionality”, do not invoke the history, context, and literature that it brings. どちらの作品も、交叉設定のアルゴリズムを一般化する上で、重要かつ印象的な技術的進歩をもたらしていますが、"intersectionality&qu ot;と明示的に命名しないことで、それがもたらした歴史、文脈、文献を呼び出しません。 0.59
4We use Semantic Scholar to keyword search for “fair”, “fairness”, and “bias” from 9 conferences: NeurIPS, ICML, ICLR, FAccT, CVPR, ECCV, ICCV, ACL, EMNLP. 4)のキーワード検索にセマンティックスタディを使用し、neurips, icml, iclr, facct, cvpr, eccv, iccv, acl, emnlpの9つのカンファレンスの“fair”, “fairness”, “bias” をキーワード検索します。 0.68
We retained all papers with 75 or more citations, and of these 58 papers, further narrowed down to the 26 that proposed fairness algorithms. 我々は75以上の引用を含むすべての論文を保持し、58の論文のうち、さらに公平性アルゴリズムを提案する26まで絞り込んだ。 0.73
5One way of incorporating intersectional identities is by encoding them as, e g , race-sex, such that {Black, White}× {Female, Male} can be considered as a single axis of identity with four values of {Black Female, Black Male, White Female, White Male}. 5 交叉アイデンティティを組み込む方法の1つは、例えば、レースセックスを {Black, White}× {Female, Male} を {Black female, Black Male, White female, White Male} の4つの値を持つアイデンティティの1つの軸と見なすことができるように符号化することである。 0.87
3 3 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
3 SETUP Throughout our work, we provide experiments and empirical results to substantiate the claims we make. 3 SETUP 当社の作業を通じて、クレームを裏付ける実験と実証結果を提供しています。 0.75
In this section, we give an overview of the datasets, training objective, and algorithms that we perform such studies on. 本稿では,このような研究を行うデータセット,学習目標,アルゴリズムの概要について述べる。 0.65
When faced with a choice to make about our experimental setup, e g , which fairness metric to optimize for, we simplistically opt for the most straightforward choice that is most aligned with prior work in the space. 実験的なセットアップ、例えば、どのフェアネスメトリックを最適化するかを決める選択に直面した場合、私たちは、空間の以前の作業と最も整合した最も単純な選択を、シンプルに選択します。 0.80
This is because the goal of our work is not for exhaustivity in showing these issues will arise in every fairness setting, but rather, that they do manifest in a generically adapted fairness setting with common algorithms trained on actual datasets.6 これは、私たちの研究の目標は、これらの問題がすべての公平な設定で発生することを示すことの徹底性ではなく、実際のデータセットで訓練された一般的なアルゴリズムで、汎用的に適合した公平性設定に現れるからです。 0.57
Datasets: We use the newly proposed tabular datasets derived from US Census data by Ding et al [31]. データセット: ding et al [31] による米国国勢調査データから新たに提案された表型データセットを使用する。 0.68
We do this because of both the reasons delineated by Ding et al [31], such as the community’s over-reliance on the Adult Income dataset [32], and also the richer data features available to us. コミュニティのアダルト所得データセット[32]への過度な依存や、私たちにとって利用可能なよりリッチなデータ機能など、Ding氏らによる[31]の理由によるものです。 0.66
For each dataset, we are able to query for additional demographic features for each individual, such as marital status and granular race labels, as needed. 各データセットに対して、必要に応じて、結婚ステータスやグラニュラーレースラベルなど、各個人の人口統計学的特徴を問い合わせることができます。 0.67
We use the five datasets offered by the paper: ACSIncome, ACSPublicCoverage, ACSMobility, ACSEmployment, and ACSTravelTime. ACSIncome、ACSPublicCoverage、ACSMobility、ACSEmployment、ACSTravelTimeの5つのデータセットを使用します。
訳抜け防止モード: 論文の提供する5つのデータセット : ACSIncome, ACSPublicCoverage、ACSMobility、ACSEmployment、ACSTravelTime。
0.65
We pick the California 2018 slice of these datasets to strike a balance between a computationally feasible size, and also having sufficient data points. これらのデータセットのCalifornia 2018スライスを選択して、計算可能なサイズと十分なデータポイントのバランスを取ります。 0.71
This choice is somewhat arbitrary because, as we noted, we are not trying to make any data-driven societal insights, but merely demonstrate that particular phenomena may manifest in algorithms trained on actual datasets. この選択は、私たちが述べたように、データ駆動型社会的な洞察を起こそうとしているのではなく、特定の現象が実際のデータセットでトレーニングされたアルゴリズムに現れることを単に示しているからです。 0.61
We assume the positive label of each dataset is the desirable one, even though this is not always clear, e g , the positive label in ACSTravelTime corresponds to an individual traveling more than 20 minutes to get to work. 例えば、ACSTravelTimeの正のラベルは、仕事に行くのに20分以上かかる個人に対応しています。
訳抜け防止モード: 各データセットの正のラベルが望ましいものだと仮定する。 これは必ずしも明確ではないが、例えば、ACSTravelTimeの肯定的なラベルは、仕事に行くのに20分以上かかる個人に対応する。
0.66
However, we could conceive of a perhaps contrived setting in which getting predicted to have a longer travel time entails receiving some kind of travel stipend. しかし、より長い旅行時間を持つと予測された場合、ある種の旅行料を受け取る必要があると予測されるかもしれない。 0.69
Again, for the same reason as our selection of data slice, we do not place much weight into what would, in an application-based design, typically be very value-laden choices. 繰り返すが、データスライスの選択と同じ理由から、アプリケーションベースの設計では、通常、非常に価値の高い選択となるものに対して、あまり重みを付けない。 0.73
For all of our experiments, we perform five trials of each run, using random seeds and different training/validation/ test 実験はすべて、ランダムな種と異なるトレーニング/評価/テストを使って、各ランの5つの試行を行います。 0.69
splits for each, as recommended by Friedler et al [42], to give 95% confidence intervals. Friedler et al [42] が推奨しているように、それぞれの分割は95%の信頼区間を与える。 0.77
Training Objective: We train all algorithms to achieve a balance between measures of accuracy and group fairness. トレーニング対象: 正確性とグループフェアネスのバランスをとるために,すべてのアルゴリズムをトレーニングする。 0.74
Our measure of accuracy is soft accuracy. 精度の計測はソフトな精度です。 0.72
Prior works have shown fairness metrics to be extremely sensitive to the classification threshold used [19]; hence we do not binarize the outputs, acknowledging that binarization may need to be done at application time to make direct predictions. 従来の研究では、[19]で使用される分類しきい値に極めて敏感な公平度指標を示しており、出力を二項化しないため、直接予測するためには、アプリケーション時に二項化を行う必要があることを認めている。 0.63
For all 𝑛 individuals, let 𝑦𝑖 ∈ {0, 1} be the label for individual 𝑖, and 𝑝𝑖 ∈ [0, 1] be the probabilistic prediction for individual 𝑖. すべての n 個の個人に対して、yi ∈ {0, 1} を個人 i のラベルとし、pi ∈ [0, 1] を個人 i の確率的予測とする。 0.83
Soft accuracy is defined to be 1 𝑖=1 𝑦𝑖 · 𝑝𝑖 + (1− 𝑦𝑖) · (1− 𝑝𝑖). ソフト精度は 1 i=1 yi · pi + (1− yi) · (1− pi) と定義される。 0.90
Picking a fairness metric is highly non-trivial, as context about the downstream effects of the algorithm is needed. フェアネスメトリックの選択は、アルゴリズムの下流効果に関するコンテキストが必要なので、非常に非自明である。 0.64
However, for the scope of our work since we consider the positive labels to be more desirable, we choose a metric analogous to equal opportunity [58], i.e., equalizing the true positive rate (TPR).7 しかし, 正のラベルの方が望ましいと考えられる作業の範囲では, 等機会[58], すなわち, 正の正のレート(TPR)を等化する計量を選択する。 0.63
Our measure of fairness is thus max TPR difference. したがって、公平性の尺度は最大TPR差である。 0.60
To generalize the equal opportunity measure to more than two groups, we adopt a method similar to prior work [40, 77, 121]. 等機会尺度を2つ以上のグループに一般化するために,先行作業[40,77,121]と同様の方法を採用する。 0.84
If we define𝑇 𝑃𝑅(𝑔) to be the average 𝑝𝑖 for all individuals of group 𝑔 with label 𝑦 = 1, then our measure is the maximum pairwise difference between any two groups. T PR(g) をラベル y = 1 を持つ群 g のすべての個人の平均 pi と定義すれば、我々の測度は任意の 2 つの群の間の最大対差である。 0.81
Most proposed fairness algorithms are able to optimize for this metric, and we are trying to capture the canonical way the community has been targeting intersectionality. 提案されているフェアネスアルゴリズムの多くは、このメトリックのために最適化することができ、コミュニティが交叉性をターゲットにしている標準的な方法を捉えようとしている。 0.59
We will go on to investigate the sufficiency of metrics like this in Sec. 6, and propose constructive suggestions there. 今後、Sec.6でこのようなメトリクスの有効性を調査し、建設的な提案を提案します。
訳抜け防止モード: 続きます Sec.6におけるこのようなメトリクスの十分性を調査し、建設的な提案を提案する。
0.74
For hyperparameter tuning we optimize for the geometric mean of soft accuracy and (1 - max TPR difference) to ハイパーパラメータチューニングでは、ソフト精度の幾何学的平均と(1 - 最大tpr差)を最適化する。 0.77
𝑛 𝑛 account for values with different scales. 𝑛 𝑛 異なるスケールで価値を説明できます 0.50
6Code is located at https://github.com/p rincetonvisualai/int ersectionality 7We focus on equal opportunity, but our flavor of analysis applies to other algorithmic fairness notions, such as demographic parity, equalized odds, etc. 6codeはhttps://github.com/p rincetonvisualai/int ersectionality 7に置かれています。
訳抜け防止モード: 6Codeはhttps://github.com/p rincetonvisualai/int ersectionality 7にある。 分析のフレーバーは他のアルゴリズム的公正の概念にも当てはまります 例えば、人口格差、等化確率などです。
0.73
4 4 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Algorithms: Our experiments are performed on one baseline and five fairness algorithms. アルゴリズム: 1つのベースラインと5つのフェアネスアルゴリズムで実験を行う。 0.78
Our baseline is a 3 layer fully connected neural network with 30 neurons in each hidden layer and a sigmoid activation trained to predict 𝑦𝑖 from an individual’s features and demographic attributes. 私たちのベースラインは、3層完全接続されたニューラルネットワークで、各隠れ層に30個のニューロンがあり、個々の特徴と人口属性からyiを予測するように訓練されたsgmoidアクティベーションがあります。
訳抜け防止モード: 私たちのベースラインは、隠れた各層に30のニューロンを持つ3層完全に接続されたニューラルネットワークである シグモイドの活性化を訓練し 個人の特徴と人口統計属性からyiを予測する。
0.71
The first two fairness algorithms are general ones we extend to the intersectional setting by coding attributes as, e g , race-sex: RWT [69] is a reweighting schema and RDC [2] reduces to a sequence of cost-sensitive classifications. 最初の2つのフェアネスアルゴリズムは、属性をコーディングすることによって交叉設定に拡張する一般的なアルゴリズムである: rwt[69]は、再重み付けスキーマであり、rdc [2]は、コストに敏感な分類のシーケンスに還元される。 0.74
The latter three are intersectional methods: LOS [40] has an extra intersectional fairness loss term, GRP [121] is a probabilistic combination of models, and GRY [76, 77] produces costsensitive classifications from a 2-player zero-sum game. ロス [40] は余分な交叉フェアネス損失項を持ち、grp [121] はモデルの確率的組み合わせであり、gry [76, 77] は2人のプレイヤーのゼロサムゲームからコストに敏感な分類を生成する。 0.67
Details and hyperparameter search spaces are in Appendix A. 詳細とハイパーパラメータ検索空間はAppendix Aにある。 0.86
4 SELECTING WHICH IDENTITIES TO INCLUDE The first of three core challenges in incorporating intersectionality that we address in this work is considering which identities to include [95].8 4 この研究で取り組んだ交差点を組み込む上での3つの課題の1つは、[95]をどのアイデンティティに含めるかを検討することである。 0.69
The foundation of this problem is that categorizing people into discrete, socially constructed groups, while tenuous, is often necessary for machine learning systems to make sense of socially relevant distinctions [35, 56, 67]. この問題の基礎は、人々を個別に、社会的に構成されたグループに分類するが、機械学習システムは社会的に関連のある区別(35, 56, 67])を理解するために、しばしば必要となる。 0.77
However, this flattening of individuals is often at the expense of ignoring different amounts of heterogeneity within each group. しかし、この個人のフラット化は、しばしば各グループ内の異なる量の異質性を無視している。 0.74
Homogeneity here would entail that each member of a group is best treated identically to all other members of that group by a machine learning model; heterogeneity involves a break from this assumption.9 ここでの均一性は、グループの各メンバーが機械学習モデルによって、そのグループの他のメンバーと同一に扱われることを要求する。
訳抜け防止モード: ここでの均質性は、グループの各メンバーが、機械学習モデルによって、そのグループの他のメンバーと同一に扱われることを伴う。 異質性には この推定値から
0.68
In other words, one conception of a heterogeneous group is when, within that group, “statistical patterns that apply to the majority might be invalid within a minority [sub]group” [57]. 言い換えれば、異種集団の1つの概念は、そのグループの中で「多数派に適用される統計的パターンが、少数[sub]グループ内で無効になるかもしれない」ときである。 0.75
While heterogeneity will exist in any categorization of people, our focus is on the differing amounts of within-group heterogeneity that exists across groups. 人類のどの分類にも異質性は存在するが、我々の焦点は集団にまたがる集団内の異質性の違いである。 0.68
A variety of machine learning approaches overlook this fact by assuming a version of constant within-group heterogeneity, whether that be through known variances across groups for a variational Bayesian approach to one-shot learning [37], or the homoscedasticity assumption (i.e., that all groups have the same variance) for methods like linear regression and linear discriminant analysis. 様々な機械学習アプローチはこの事実を、一発学習へのベイズ的アプローチの変分[37]に対する群間の既知の分散を通すか、あるいは線形回帰や線形判別分析のような方法に対するホモシダスティック性仮定(すなわち、すべての群が同じ分散を持つ)を仮定することによって見落としている。 0.84
Violations of the homoscedasticity assumption are well-studied by statistical tests [47, 88], but less understood in the context of training machine learning models.10 確率論的仮定の違反は統計的テスト [47, 88] によってよく研究されるが、機械学習モデルのトレーニングの文脈では理解されていない。
訳抜け防止モード: ホモスセダシティ性仮定の違反は良好である - 統計的テスト [47, 88 ] による研究- しかし 機械学習モデルの訓練という文脈では
0.71
The solution is not as trivial as simply adding in as many axes and granular identities as we have access to, which is also what often leads to outcries of how intersectionality might take us to the extreme of sub-dividing until each group is an individual person. このソリューションは、単に私たちがアクセスできるほど多くの軸や粒度のアイデンティティを付加するほど自明ではない。
訳抜け防止モード: このソリューションは、我々がアクセスできる限り多くの軸と粒度を付加するほど簡単ではない。 それはまた しばしば 怒りを招きます 交差性は、各グループが個人になるまで、サブグループを分割する極端に私たちを導くかもしれません。
0.68
To demonstrate how we should consider which identities to include, we perform representative case studies on two racial groups. どのようなアイデンティティを含めるべきかを検討するために,2つの人種集団について代表的ケーススタディを行う。 0.57
In Sec. 4.1 we investigate the granularity of constituent identities within Asian Pacific Islander to include as labels (e g , Hmong, Japanese, Cambodian, Asian Indian) in order to empirically explore the tension between adding more identities and reaching a point of intractability because there are too many groups. 第4.1条では,アジア太平洋諸島における構成的アイデンティティの粒度をラベル(例えば,Hmong,日本語,カンボジア語,アジアインディアン)として含めることで,集団が多すぎるため,より多くのアイデンティティの追加と難易度に達するとの緊張感を実証的に調査する。 0.75
In Sec. 4.2 we look into another heterogeneous racial group, Other, because how we go about including this category remains an important and relevant consideration so long as we are utilizing discrete categories. Sec 4.2では、他の異種人種集団について検討する。なぜなら、このカテゴリーをどう含めるかは、個別のカテゴリーを利用する限り、重要かつ関連する考慮事項である。 0.70
One might ask why our case studies look into multiple groups within the same axis, rather than along different ones. ケーススタディがなぜ同じ軸内の複数のグループを調べるのか、という疑問が持たれるかもしれません。 0.68
Different levels of heterogeneity within groups often come about due to additional axes of identity that are unaccounted for, e g , gender differences within a racial group. グループ内の異質性の異なるレベルは、例えば人種グループ内の性別の違いについて考慮されていない追加のアイデンティティ軸によって生じることが多い。 0.73
However, we argue that heterogeneity along the same axis is also relevant, and an investigation of this will help us understand how to handle the intersectional case. しかし、同じ軸に沿った不均一性も関係していると論じ、これを調べることで交叉ケースの扱い方を理解するのに役立つだろう。 0.61
We note that while socially the concepts of heterogeneity either due to additional axes or along the same axis are very different, technically they may warrant similar approaches. 社会的には、追加の軸によって、あるいは同じ軸に沿って、異質性の概念は非常に異なるが、技術的には同様のアプローチを保証できる。 0.67
When along the same axis, the groups with higher heterogeneity are sometimes 同じ軸に沿っているとき、より高い異質性を持つ群は時々 0.80
8We take as a given that identities should be included during training, i.e., fairness through awareness [33, 34]. 8 訓練中,すなわち意識を通じた公平性 [33, 34] にアイデンティティを含めるべきである。 0.70
9Because we have scoped our work to be on algorithmic harms, our investigation will be focused on heterogeneity’s role in the context of model predictions. 9) アルゴリズム的危害に取り組むため、我々は、モデル予測の文脈における異種性の役割に焦点をあてる。
訳抜け防止モード: 9 アルゴリズム上の危害を被る作業が範囲内にあるためです。 我々の調査は、モデル予測の文脈における異種性の役割に焦点を当てます。
0.71
Thus, we will not perform what might be considered a more model-agnostic approach of unsupervised learning on the dataset itself. したがって、データセット自体において教師なし学習をよりモデルに依存しないアプローチで行うことはできない。 0.70
10Differing heterogeneity is related to “second moment” statistical discrimination in economics: marginalized groups, for structural reasons like not being given sufficient opportunity to demonstrate ability, have a higher perceived variance and are discriminated against by risk-averse employers [3, 30, 36]. 10次元の異質性は経済学における「第2の瞬間」の統計的識別と関連している: 限界化群は、能力を示すのに十分な機会を与えられていないような構造的理由から、より高い認識のばらつきを持ち、リスク回避雇用者[3,30,36]によって差別される。
訳抜け防止モード: 10 異質性の違いは経済学における「第2の瞬間」の統計的差別と関連している 有能性を示す十分な機会が与えられないなどの構造上の理由から、辺縁化群。 平均雇用者数は3,30,36。
0.73
5 5 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
those that have been unified not because they share a particular trait, but rather because they share a hardship that has motivated them to pursue change as a more unified group, e g , coalitional identities like Disability [1, 120]. 特定の特性を共有するためではなく、より統一されたグループ、例えば障害[1, 120]のような連立的なアイデンティティとして変化を追求する動機となる困難を共有しているためです。 0.71
Another group likely to have high heterogeneity is Other, the residual group that comes with discrete categories. 異質性が高い可能性のある別の群は別の群であり、離散圏を持つ剰余群である。 0.63
For example, if gender categories are Male, Female, and Other, this latter group may encompass people who identify as non-binary, intersex, and other gender identities that may differ greatly from each other. 例えば、性別のカテゴリーが男性、女性、その他である場合、このグループは、互いに大きく異なる非バイナリ、インターセックス、その他の性同一性として識別される人々を含む可能性がある。 0.73
4.1 Case study: heterogeneity within Asian Pacific Islander To investigate the granularity of identities to include, we consider “Asian Pacific Islander”, or API. 4.1 ケーススタディ:アジア太平洋島民の異種性 を含むべきアイデンティティの粒度を調べるため、我々は「アジア太平洋島民」(api)を考える。 0.74
This racial grouping came about in the late 1960s, inspired by the Black Civil Rights Movement, as part of an initiative to unify disparate groups [99]. この人種集団化は1960年代後半、黒人公民権運動に触発され、異なる集団を統一するイニシアチブ(99])の一部として始まった。 0.69
This aggregate category was on the US Census in 1990 and 2000, though a 1997 mandate separated it into “Asian” and “Native Hawaiian and Other Pacific Islander.” このカテゴリーは1990年と2000年の国勢調査で分類されたが、1997年の命令では「アジア系」と「ハワイ系およびその他の太平洋諸島人」に分けられた。 0.72
However, these two groups are frequently still clustered together, despite the very different forms of discrimination and stereotyping that each faces. しかし、これらの2つの集団は、非常に異なる形態の識別とステレオタイプにもかかわらず、しばしば団結している。 0.63
To understand the difference that label granularity of API makes, we perform a series of experiments where each algorithm is provided the same set of data, but with demographic features, 𝑔, along three different sets of granularity: “Asian” and “Native Hawaiian and Other Pacific Islander” are considered one aggregate group (1 group), “Asian” and “Native Hawaiian and Other Pacific Islander” are separated (2 groups), each group is further broken down into even more granular labels, such as Hmong, Cambodian, Asian Indian, etc (> 10 groups). To understand the difference that label granularity of API makes, we perform a series of experiments where each algorithm is provided the same set of data, but with demographic features, 𝑔, along three different sets of granularity: “Asian” and “Native Hawaiian and Other Pacific Islander” are considered one aggregate group (1 group), “Asian” and “Native Hawaiian and Other Pacific Islander” are separated (2 groups), each group is further broken down into even more granular labels, such as Hmong, Cambodian, Asian Indian, etc (> 10 groups).
訳抜け防止モード: APIのラベルの粒度の違いを理解するには 私たちは、それぞれのアルゴリズムが同じデータセットを提供する一連の実験を行います。 しかし、人口統計学的特徴、gは3つの異なる粒度のセットに沿っている:「アジア」 また,「ハワイ島とその他の太平洋諸島」は1群(1群)と見なされている。 アジア」と「ハワイおよびその他の太平洋諸島」を分離する(2群)。 それぞれのグループはさらに より粒度の細かいラベルに分解されます Hmong, カンボジア, アジアインディアンなど(10群)。
0.84
We preprocess the datasets to only include individuals with racial groups White, Black, and the granular groups within API with at least 300 individuals, 30 negative labels, and 30 positive labels. データセットを事前処理して、人種グループである白、黒、およびapi内の粒度グループのみを、少なくとも300人、負のラベル30人、正のラベル30人を含むようにします。 0.69
This is so as to not add too many variables for this particular case study. これは、この特定のケーススタディに多くの変数を追加しないためである。 0.68
On the two datasets of ACSIncome and ACSTravelTime, we train and perform inference for each of our algorithms under the three granularity scenarios. ACSIncomeとACSTravelTimeの2つのデータセットでは、3つの粒度シナリオの下で各アルゴリズムの推論をトレーニングし実行します。 0.78
We use as our evaluation metric the max TPR difference, and always measure this between the most granular constituent groups we have, i.e., the scenario with > 10 groups. 我々は、評価指標として、最大TPR差を計測し、常に、最も粒度の細かい構成群、すなわち、>10群のシナリオの間で測定する。 0.75
In other words, an algorithm considering API to be one aggregate group would be trained with these labels, and perform predictions with them. 言い換えれば、APIをひとつの集約グループとみなすアルゴリズムは、これらのラベルでトレーニングされ、それらを予測する。 0.77
However, when evaluating in this setting, the more granular labels of > 10 groups are used. しかし、この設定で評価する場合は、より粒度の細かい > 10 のラベルが用いられる。 0.73
Intuitively, one might posit that it is always best to use the most granular labels of > 10 groups when training, since these are the labels for which evaluation will be performed. 直感的には、評価を行うラベルであるから、トレーニングの際には、>10の最も粒度の細かいラベルを使うのが最善である、と仮定するかもしれない。 0.70
However, that intuition breaks down when we consider empirical results in Fig 1. しかし、この直観は、図1で経験的な結果を考えると壊れる。 0.60
Across both datasets for each algorithm, it is not always the case that training with the most granular labels results in the lowest max TPR difference for these very same groups. 各アルゴリズムのデータセット全体において、最も粒度の細かいラベルによるトレーニングが、これらの非常に同じグループに対して最も低いTPR差をもたらすことは必ずしもない。 0.74
In fact, in the ACSTravelTime dataset, we actually see that GRY outperforms all other algorithms with a max TPR difference of 0.03 ± 0.01 when it considers API at the granularity of 2 groups. 実際、ACSTravelTimeデータセットでは、2つのグループの粒度でAPIを考えると、GRYは最大TPR差0.03 ± 0.01で他の全てのアルゴリズムより優れています。 0.80
Possible reasons include that models may overfit when groups are small, or that for some datasets, certain groups are sufficiently homogeneous that they benefit from being treated as the same. 考えられる理由としては、グループが小さい場合や、一部のデータセットでは、特定のグループが十分に均質であり、同じものとして扱われるメリットがある場合、モデルが過剰に適合する可能性がある点が挙げられる。 0.54
It is not always clear a priori which grouping is best for training, and this will require a combination of contextual understanding of the historical and societal reason behind the groupings in a particular domain as well as empirical validation to understand what works best in a particular setting. どのグルーピングがトレーニングに最適かは必ずしも明確ではなく、これは特定の領域におけるグルーピングの背後にある歴史的・社会的理由の文脈的理解と、特定の設定において何が最もうまく働くかを理解するための実証的検証の組み合わせを必要とする。
訳抜け防止モード: どのグループ化が訓練に最適かは必ずしも明確ではない。 そしてこれは、特定のドメインにおけるグループ化の背後にある歴史的および社会的理由の文脈的理解と、特定の設定で何が最もうまく機能するかを理解するための実証的な検証の組み合わせを必要とする。
0.69
While in this case study our experimental scenarios were different granularities along a singular axis of identity, similar experiments can be performed where each scenario is the inclusion of a different combination of axes of identity. この場合、実験シナリオはアイデンティティの特異軸に沿った粒度が異なるが、各シナリオがアイデンティティの軸の異なる組み合わせを含む場合、同様の実験を行うことができる。
訳抜け防止モード: このケースでは、我々の実験シナリオはアイデンティティの特異軸に沿って異なる粒度であった。 同様の実験も行えます それぞれのシナリオは 同一性の軸の異なる組み合わせを 含みます
0.83
4.2 Case study: heterogeneity within Other Considering how to handle the individuals that fall outside the delineated identities is an important consequence that comes with expanding beyond binary attributes or single axes of identity. 4.2 ケーススタディ:他の分野における異質性(heregeneity) デリバティブ属性や単一アイデンティティの軸を超えて拡大する上で生じる重要な結果である。 0.64
For example, multi-racial and non-binary individuals are often forced to pick a category that does not apply to them, or simply choose the catch-all Other, both 例えば、多人種および非バイナリの個人は、しばしばそれらに当てはまらないカテゴリーを選択するか、単に他の全てのカテゴリーを選択することを強いられる。 0.62
6 6 0.43
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Fig. 1. Each algorithm is trained under three scenarios, where the API group is broken up into 1, 2, or > 10 granular groups. 図1。 各アルゴリズムは3つのシナリオでトレーニングされ、APIグループは1, 2, or > 10の粒度のグループに分けられる。 0.56
All algorithms are evaluated on the most granular setting of > 10 groups, where max TPR difference is only between these particular subgroups (excluding the Black and White racial groups). すべてのアルゴリズムは、最大tpr差がこれらの特定のサブグループ(黒人と白人の人種グループを除く)のみである10以上の最も細かい設定で評価される。 0.76
While on some dataset and algorithm combinations it is best to give the algorithm the most granular set of racial labels, in others it can actually benefit to use a more coarse set of labels. いくつかのデータセットとアルゴリズムの組み合わせでは、アルゴリズムに最も細かいラベルのセットを与えるのが最善だが、他のデータセットでは、より粗いラベルのセットを使うことが実際有益である。 0.65
of which have associated harms [4, 13, 54, 93, 107, 108]. そのうちの4つ[4, 13, 54, 93, 107, 108]は 0.49
The Other racial category appeared in the US Census in 1910, and in 2010 was the third-largest racial category [6]. 他の人種カテゴリーは1910年にアメリカ合衆国国勢調査に登場し、2010年には第3位の人種カテゴリーとなった。 0.66
Given that this group is defined by not belonging to any of the named racial groups, we might wonder if there is a larger amount of heterogeneity amongst the people who check this box. このグループは、名前付き人種グループのいずれかに属さないことで定義されているので、このボックスをチェックする人々の間で、より多くの多様性があるのかどうか疑問に思うかもしれない。
訳抜け防止モード: このグループは、どの人種グループにも属さないことで定義される。 不思議に思うかもしれませんが この箱をチェックした人たちの間には 異質性が多い
0.72
However, for race specifically, prior work has found that Other is not simply a leftover residual group, but rather a “socially real phenomenon” [15]. しかし、特にレースにおいて、先行研究により、他は単なる残余群ではなく、むしろ「社会的な実現象」 [15] であることがわかった。 0.67
For example, Brown et al [15] found that in the 2000 United States census, the Other racial group became a proxy for Hispanic people, where 97% of people who checked “Other” for race also checked “Hispanic” for origin. 例えば、Brown et al [15] は、2000年の国勢調査で、他の人種集団がヒスパニック系の人々の代理となり、人種の「他」をチェックした人々の97%が「ヒスパニック」を起源としていたことを発見している。 0.69
Drawing from this, one might imagine that when training a model on a dataset exhibiting this characteristic, it could make sense to treat Other as its own group, or split up Other into those that are Hispanic or not. これから、この特徴を示すデータセット上でモデルをトレーニングする場合、他を独自のグループとして扱うか、あるいは他のものをヒスパニック系かどうかに分けるのが理にかなっていると想像できるかもしれない。 0.64
In the quantitative social sciences, there are three common ways in which racial groups like Other and Multiracial are approached: treating it as its own group (Separate), redistributing each individual to another group they are similar to [87] (Redistribute), or simply ignoring this group [43] (Ignore). 定量的社会科学では、他の人種集団や多人種集団のような人種集団にアプローチする方法として、独自のグループ(分離)として扱うか、[87](再分配)に類似した集団に個々に再分配するか、[43](無視)を単に無視するかの3つがある。 0.75
We empirically test these three approaches to understand the different accuracies they result in for the Other group. 我々はこれらの3つのアプローチを実証的に検証し、それらが他グループに対してもたらす異なる精度を理解する。
訳抜け防止モード: これら3つのアプローチを実証的にテストし 他のグループのために生じる 異なるアキュラティシティを理解するためです
0.67
To implement Redistribute, we simplistically pick a strategy of re-assigning each individual in Other to the racial group of its nearest L2 distance neighbor in the feature space. Redistributeを実装するには、特徴空間における最も近いL2距離近傍の人種グループに対して、各個人を再割り当てする戦略を簡潔に選択する。 0.69
While results from this method of redistribution may not generalize to other methods, we show this as one demonstrative example. この再分配法の結果は他の方法には一般化できないが、一つの実証例として示す。 0.76
The reason we might believe this strategy could be helpful is if individuals in the Other group have distributions such that being grouped with another group would lead to more accurate predictions. この戦略が役に立つと考える理由は、他のグループ内の個人が、他のグループとグループ化されるとより正確な予測につながるような分布を持っている場合です。 0.74
Similar to the case study on API, we train our model across three different scenarios while keeping the evaluation consistent. APIに関するケーススタディと同様に、評価を一貫性を維持しながら、3つの異なるシナリオでモデルをトレーニングします。 0.66
In Fig 2 we see that for ACSEmployment, the Separate scenario of treating Other as its own distinct group does frequently perform best—not necessarily unexpected given our prior domain knowledge. 図2では、ACSEmploymentに対して、Atherを独自のグループとして扱う分離シナリオは、我々の以前のドメイン知識を考えると、必ずしも予想外ではなく、しばしば最もよく機能する。 0.55
However, in Fig 2 for ACSIncome it is no longer always the case that treating Other as its own group performs better, e g , Redistribute outperforms Separate for the RWT and RDC algorithms. しかし、ACSIncome の図 2 では、Other を自身のグループとして扱うことが、RWT と RDC のアルゴリズムで分離された性能よりも優れているという、もはや必ずしもそうではない。 0.63
This furthers our finding that contextual knowledge, e g , about Other sometimes being a racial group in its own right, is not entirely sufficient in helping us know a priori how best to handle a group. これはまた、文脈的な知識、例えば、それ自体が人種的なグループである場合もありますが、グループを扱う最善の方法を知るのに十分ではないということもわかりました。 0.67
4.3 Constructive Suggestions Overall, our case studies show it is rarely clear a priori which identities should be included due to differences in performance on even the same task across algorithms. 4.3 コンストラクティブ・サジェストの総合的な考察から, アルゴリズム間の同一タスクにおいても, 同一タスクの性能の違いから, 同一性を含めるべき優先事項が明確になることはめったにない。 0.66
Ultimately, it will take a combination of contextual understanding of the application and empirical experiments to make the decision on what works best for a particular application. 究極的には、アプリケーションに対するコンテキスト的理解と経験的な実験を組み合わせることで、特定のアプリケーションに最適なものを決定する。 0.76
7 7 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
Fig. 2. Three methods of incorporating the Other racial group: Separate - treating Other as its own group, Redistribute - redistributing each member of Other to the racial group of its nearest neighbor, and Ignore - ignoring this group at train time. 図2。 他の人種集団を統合する3つの方法:分離 - 他の集団を独自のグループとして扱う、再分割 - 隣人の人種グループに他のメンバーを再分配する、そしてイグノア - 列車時にこのグループを無視しる。 0.66
GRP and GRY are unable to perform inference on groups unseen at training time, so those results could not be generated. GRPとGRYはトレーニング時に見えないグループで推論を行うことができないため、これらの結果は生成できない。 0.74
For ACSEmployment, Separate is often the best condition. ACSEmploymentにとって、分離はしばしば最良の条件である。 0.70
However, for ACSIncome, no condition is best for all scenarios. しかし、ACSIncomeの場合、すべてのシナリオに最適な条件は存在しない。 0.73
When Crenshaw [26] first introduced intersectionality, she was considering it in the context of how race discrimination law and sex discrimination law failed to capture the discrimination experienced by Black women. crenshaw [26]が最初に交叉性を導入したとき、彼女は人種差別法と性差別法が黒人女性が経験した差別をいかに捉えられなかったかという文脈で考えていた。 0.65
Thus, the relevant axes for her to consider were race (Black and White) and sex (Female and Male). したがって、彼女にとって考慮すべき軸は人種(黒人と白人)と性(女性と男性)であった。 0.77
Guided by this kind of contextual knowledge, practitioners can incorporate empirical findings to select the relevant set of identities to include. このような文脈的知識によって導かれる実践者は、経験的発見を取り入れて、含めるべき関連するアイデンティティのセットを選択することができる。
訳抜け防止モード: この種の文脈知識によって導かれる。 実践者は経験的な発見を取り入れ 関連するアイデンティティのセットを 選びます
0.68
When training predictive models, including all available identity labels may not always be best. 利用可能なidラベルを含む予測モデルをトレーニングする場合、必ずしもベストとは限らない。 0.51
Computational tractability comes into play, as do similarities and differences between groups. 計算の扱いやすさは、グループ間の類似性と差異と同様に作用する。 0.68
For example, if group A and B have similar distributions, but group B has a small number of labels, it may benefit this group to join with group A, lest there not be sufficient samples to train a predictive model. 例えば、群 a と b が同様の分布を持つが、群 b は少数のラベルを持つので、この群が群 a と結合する利益があるが、予測モデルを訓練するのに十分なサンプルが存在しない。 0.79
The exception is for post-processing approaches, where it may be more likely to be beneficial to include more identities. 例外は後処理アプローチであり、より多くのIDを含める方が有益である可能性が高い。 0.61
This is because these approaches generally involve learning only one or two group-specific parameters, e g , classification threshold or probability of flipping a binary prediction [58, 73, 101], and are thus less susceptible to overfitting. これは一般に、分類しきい値や二進予測[58, 73, 101]を反転させる確率などの1つまたは2つのグループ固有のパラメータしか学習しないためであり、したがって過度に適合する可能性が低い。 0.77
Another suggestion regarding which identities to include is on how to handle the individuals that fall outside the delineated identities. どのアイデンティティを含めるべきかという別の提案は、デリケートされたアイデンティティの外にある個人をどう扱うかである。 0.53
Experiments guided by contextual knowledge show us how to proceed. 文脈知識に導かれた実験は、どのように進むかを示す。 0.60
However, we advise extreme caution when considering any kind of recategorization due to serious normative implications. しかし,本格的規範的意味から再分類を考慮すれば,極端な注意が必要である。 0.55
Benthall and Haynes [11] proposed using unsupervised clustering to discover “race-like” categories, and Hanna et al [56] levied a critique against such a mechanism. benthall と haynes [11] は教師なしのクラスタリングを使って "レースライクな" カテゴリを発見することを提案し、hanna et al [56] はそのようなメカニズムに対する批判を行った。 0.63
Use of unsupervised recategorization without human oversight can lead to inherently harmful actions, such as recategorizing someone who identifies as Non-Binary to a gendered grouping they do not belong to. 人間を監督しない非監督的な再分類の使用は、本質的に有害な行動を引き起こす可能性がある。
訳抜け防止モード: 人間の監視なしに教師なしの再分類を使用することは、本質的に有害な行動を引き起こす可能性がある。 例えば、非バイナリとして識別する人を、所属していない性別のグループに再分類するなどです。
0.44
However, supplementing recategorization with domain expertise, such as with the Other racial group, may be considered more permissible. しかし、他の人種集団のような領域の専門知識による再分類を補うことは、より許容できると考えられる。 0.56
As another option, Hancock [55] has proposed fuzzy set theory to better capture the categorization of people into socially constructed categories, and Mary et al [91] provides technical guidance on this. 別の選択肢として、ハンコック [55] は、人々の分類を社会的に構築されたカテゴリによりよく捉えるためにファジィセット理論を提案した。 0.59
In contrast, for evaluation, one should generally perform analyses at the most fine-grained level possible. 対照的に、評価においては、可能な限りきめ細かいレベルで解析を行う必要がある。 0.60
In fact, in many cases if a dataset does not contain sufficient axes or identities according to a domain expert’s understanding of the kinds of intersectional power dynamics that may be at play, one should consider collecting more demographic labels, keeping privacy concerns in mind [71]. 実際、もしデータセットに十分な軸やアイデンティティが含まれていない場合、ドメインの専門家が実行中のかもしれない交叉パワーダイナミクスの種類について理解している場合、より多くの人口統計学的ラベルを収集し、プライバシーの懸念を念頭に置いて検討する必要がある[71]。 0.63
For smaller groups where one might argue evaluations would be noisy [39], error bars could convey uncertainty, and evaluations on the larger group could also be included. 評価がノイズであると主張する小さなグループの場合[39]、エラーバーは不確実性を伝えることができ、より大きなグループに対する評価も含めることができる。
訳抜け防止モード: 小規模なグループでは 評価が騒がしいと 主張するかもしれません [39] エラーバーは不確実性を伝える より大きなグループの評価も 含めることができます
0.80
5 HANDLING PROGRESSIVELY SMALLER GROUPS Now that we have discussed which identities to include, we consider the next inevitable challenge that comes with incorporating more identities: the presence of ever smaller numbers of individuals in each group. 5 段階的に小さなグループを扱い、どのアイデンティティを含めるべきかについて議論した今、私たちは次の避けられない課題として、各グループにより少ない数の個人が存在することを考慮する。
訳抜け防止モード: 5 段階的に小さなグループを扱い、どのidを含めるべきかについて議論した。 次の避けられない課題は より多くのアイデンティティ:各グループ内のより少ない数の個人の存在。
0.64
Machine learning has 8 機械学習は 8 0.60
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
long tackled such long tail problems, but there are a few critical distinctions. 長い尾の問題に取り組んだが いくつか重要な違いがある 0.67
One notable technical one is the long tail that machine learning concerns itself with is typically in the label, whereas in intersectionality it is within the label. 注目すべき技術的特徴の1つは、機械学習自体がラベルに関係しているロングテールであるのに対して、交叉性ではラベル内である。 0.65
In other words, it is not that there are too few examples of chairs, but rather a small set of the many chairs are wooden and look different from the others. 言い換えれば、椅子の例が少なすぎるのではなく、多くの椅子の小さなセットが木製で他のものと異なるように見えるのである。 0.73
Although this difference is important to keep in mind, it is rather the normative distinctions we will discuss that may impact the transferrability of existing data imbalance techniques to tasks with intersectionality concerns. この違いを念頭に置いておくことが重要であるが、既存のデータ不均衡技術が交叉性のあるタスクに伝達可能であることを議論する規範的な区別である。 0.70
However, this also gives rise to a possible new, underexplored approach that leverages the structure of intersectional data. しかし、これはまた、交叉データの構造を利用する新しい未熟なアプローチの可能性をもたらす。 0.70
We first walk through a set of traditional dataset imbalance techniques in machine learning in Sec. 5.1, and then present the kind of structure that may provide such a new avenue in Sec. 5.2. まず、sec.5.1で、機械学習における伝統的なデータセットの不均衡技術を調べ、その後、sec.5.2でこのような新しい道を提供するような構造を提示します。 0.66
5.1 Dataset imbalance techniques in machine learning A common machine learning technique for dealing with imbalanced classes is simply reweighting or resampling [68, 84]. 5.1 機械学習におけるデータセットの不均衡テクニック 不均衡クラスを扱う一般的な機械学習テクニックは、単純に [68, 84] の重み付けまたは再サンプリングです。 0.69
These entail simply increasing the attention paid to individuals of a particular group. これらは単に特定のグループの個人に支払われる注意を増すだけである。 0.62
Reweighting can also be done in an adaptive and learned way [69, 104]. 再重み付けは適応的で学習された方法で行うこともできる [69, 104]。 0.76
This might pose a normative problem because now we leave up to the model’s learning parameters which individuals will be over- or under-valued. 今や、個人が過度に評価されるか、過小評価されるであろうモデルの学習パラメータに頼っているからです。
訳抜け防止モード: これは規範的な問題を引き起こすかもしれない さて、私たちはモデルの学習パラメータに頼り、個人はオーバーまたはアンダーで価値があります。
0.60
Further techniques to tackle class imbalance move from changing the importance of existing training samples to generating new synthetic examples. クラス不均衡に取り組むためのさらなるテクニックは、既存のトレーニングサンプルの重要性から、新しい合成サンプルの生成へと移る。 0.67
Techniques like SMOTE [18] generate synthetic examples in the feature space, and there is no immediately clear intuition on the normative concern of injecting this kind of directed noise to an abstract space of features. SMOTE [18]のようなテクニックは、特徴空間における合成例を生成します。
訳抜け防止モード: SMOTE [18 ]のようなテクニックは、特徴空間で合成例を生成する。 規範的関心事に対する直感は すぐには明らかではありません このような指向性ノイズを 抽象的な特徴空間に注入します
0.77
There is also a vast literature discussing counterfactuals, a type of synthetic example steeped in causality, and which have long been used to detect forms of discrimination [20, 86]. また、因果関係の急激な合成例である反事実を論じる膨大な文献があり、識別の形式(20,86)を検出するのに長年使われてきた。 0.61
Their permissibility of use, however, for addressing class imbalance has been contested because of the infeasibility of manipulating demographic categories [62, 74, 110] and inaccurate conceptualizations of causality of demographic categories [64, 83]. しかし, クラス不均衡の解消には, 分類カテゴリー [62, 74, 110] を操作できないこと, 分類カテゴリー [64, 83] の因果性の不正確な概念化が問題となっている。 0.71
When we move from the data space of abstract features to one like images of faces, manipulations often feel viscerally wrong, e g , Figure 1 of [122]. 抽象的な特徴のデータ空間から顔のようなイメージに移行すると、操作は[122]の図1のように、直感的に間違っていると感じることが多い。 0.71
Recent work has proposed leveraging Generative Adversarial Networks (GANs) to create synthetic examples to help train models, especially for facial datasets [102, 105, 111],11 but some of these visual results can feel akin to the harmful performance of blackface. 最近の研究は、GAN(Generative Adversarial Networks)を活用して、モデル、特に顔データセット(102, 105, 111],11のトレーニングを支援する合成例を作成することを提案しているが、これらの視覚的な結果の一部は、ブラックフェイスの有害なパフォーマンスに類似している。
訳抜け防止モード: 近年,gans(generative adversarial network)を用いたモデル学習のための合成サンプル作成が提案されている。 特に102,105,111],11ですが これらのビジュアルな結果のいくつかは、blackfaceの有害なパフォーマンスに似ています。
0.76
This poses a set of questions, such as if such generations were to actually help train a model, and at the cost of less privacy concerns that might result from seeking to explicitly, and perhaps exploitatively, collect more data of underrepresented groups, is there anything to be gained from it? 例えば、そのような世代が実際にモデルをトレーニングするのに役立ったのか、そして、明示的に、あるいは悪用的に、あまり表現されていないグループのデータをもっと集めることによって生じる、プライバシー上の懸念の少ないコストで、それから得るものは何かあるのだろうか? 0.69
If we consider the normative concern to be the harmful visibility of these images because of their historical context, might we consider the generation of these images permissible, so long as they are only to be consumed by a machine learning model? 規範的な懸念が、歴史的背景からこれらのイメージの有害な可視性であると考えるなら、機械学習モデルによってのみ消費される限り、これらの画像の生成は許容できるだろうか? 0.74
These remain open questions. これらの疑問は未解決のままである。 0.34
One field in which synthetic examples are being widely adopted, and where results are relatively accepted as indicative of real-world gains largely due to work on transfer learning (e g , Sim2Real [66]), is reinforcement learning for robotics [82]. 合成例が広く採用されている分野のひとつに、移動学習(例えば、Sim2Real [66])による実世界の利益の指標として比較的受け入れられている分野は、ロボット工学の強化学習である[82]。 0.85
Simulation can often provide a safer alternative to training in the real world, and serve as a source for more data. シミュレーションは現実世界でのトレーニングのより安全な代替手段となり、より多くのデータのソースとなる。 0.70
However, because the data needs of certain fairness applications, like in tabular domains, are lower than that of reinforcement learning applications, which may use image data, the use of simulation for fairness applications may better serve a different purpose. しかし、表型ドメインのようなある種の公平性アプリケーションのニーズは、画像データを使用するかもしれない強化学習アプリケーションよりも低いため、公平性アプリケーションのためのシミュレーションの利用は、異なる目的に適する可能性がある。 0.78
For example, modeled after OpenAI’s Gym [14] (a simulation testbed for reinforcement learning), FairGym has been proposed to explore long-term impacts of fairness problems [27]. 例えば、OpenAIのGym [14](強化学習のためのシミュレーションベッド)をモデルとしたFairGymは、フェアネス問題の長期的な影響を調査するために提案されている[27]。 0.67
Thus, like Schelling [106] did to study segregation, the purpose of simulations for problems with intersectional concerns may be more akin to したがって、Schelling [106] が分離の研究を行ったように、交叉問題に対するシミュレーションの目的は、より類似しているかもしれない。 0.61
11We leave out of scope the concerns with facial recognition itself, pointing to works like [49, 100, 116] 11 顔認識自体の懸念を範囲から外し、[49, 100, 116] のような仕事を指している。 0.79
9 9 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
that of simulations as testbeds and tools for understanding sociotechical systems such as in modeling recommender systems [17, 21, 45, 70, 89] and online information diffusion [44, 48, 119], rather than as a source for more data. より詳細なデータソースとしてではなく、リコメンデータシステム(17, 21, 45, 70, 89)やオンライン情報拡散(44, 48, 119)などの社会工学システムを理解するためのテストベッドやツールとしてのシミュレーション。 0.76
5.2 Structure in data One avenue that exists in intersectionality for handling progressively smaller subgroups is leveraging the structure of the dataset. 5.2 データの構造 段階的に小さなサブグループを扱うための交差性にある1つの道は、データセットの構造を活用することである。 0.66
Drawing on our previous notion of homo- and heterogeneity, we consider that when two different groups are similar, there may be predictive patterns we can learn about one from the other. 以前のホモ・ヘテロジニティの概念に基づいて、2つの異なる群が類似している場合、予測的パターンがもう1つから学べるかもしれないと考える。 0.69
We deviate slightly from our previous notion by ignoring changes in base rate to focus only on changes in the mapping of the input distribution to output distribution.12 我々は,ベースレートの変化を無視して,入力分布の出力分布へのマッピングの変化のみに焦点を合わせることにより,これまでの概念から少し逸脱する。 0.71
Thus, in this section, we use ROC AUC as our evaluation metric because it is base rate agnostic, allowing us to focus on what we call “predictivity” differences. この節では、基準レートに依存しないため、評価基準としてROC AUCを使用し、「予測」の違いに焦点を合わせることができる。
訳抜け防止モード: したがって,本項目では評価基準としてROC AUCを用いる。 ベースレートに依存しないので、私たちは“予測”の違いにフォーカスすることができます。
0.72
One major concern that the methods in the previous Sec. 5.1 aimed to address is that underrepresentation can be a problem if the minority group is differently predictive from the majority group [85], but does not contain sufficient samples to train a robust model on. 以前のSec.5.1では、少数派が多数派[85]と異なる予測力を持つが、頑健なモデルをトレーニングするための十分なサンプルを含まない場合、表現不足が問題となることが懸念されている。 0.69
Structure in the data has the potential to help us alleviate this concern if we can learn something about the predictivity of an underrepresented group, e g , Black Female, from groups with more representation in the dataset and a shared identity, e g , Black Male who share the attribute of Black. データの構造は、データセット内のより多くの表現と共有アイデンティティを持つグループ、例えばBlackの属性を共有するBlack Maleから、未表現のグループ、例えばBlack Womenの予測性について学ぶことができれば、この懸念を軽減するのに役立つ可能性がある。 0.76
It remains important of course to consider how the context might impact the structure available to draw from. もちろん、コンテキストが引き出すことのできる構造にどのように影響するかを検討することは重要です。 0.66
For example, Gay Female and Gay Male may not share predictivity, despite sharing the attribute of Gay [28, 60]. 例えば、Gay female と Gay Male は Gay [28, 60] の属性を共有しているにも関わらず、予測性を共有していないかもしれない。 0.65
Two kinds of predictivity difference are of relevance to us: between subgroups (i.e., each subgroup is differently predictive from each other) and an additional intersectional effect (i.e., the predictivity of one group cannot be learned from groups with which it shares identities). サブグループ(つまり、各サブグループは互いに異なる予測を行っている)と追加の交叉効果(つまり、あるグループの予測性は、同一性を共有するグループから学べない)の2つの種類の予測性差が私たちと関係している。 0.81
The presence of subgroup predictivity differences tells us we should be concerned with underrepresentation, and a lack of intersectional predictivity differences tells us we may be able to leverage structure in the data to alleviate this. サブグループ予測率差の存在は、表現不足を懸念すべきであることを示しているし、交差予測率差の欠如は、データの構造を活用してこれを緩和できる可能性を示唆している。 0.64
We will perform two experiments, each aiming to discover one type of predictivity difference. 我々は2つの実験を行い、それぞれが1種類の予測率差を発見することを目的としている。 0.59
We study three datasets: ACSIncome, ACSMobility, and ACSTravelTime to understand the types of predictivity difference present in each. ACSIncome, ACSMobility, ACSTravelTimeの3つのデータセットを解析し, それぞれに存在する予測性の違いのタイプを理解する。 0.75
We consider the demographic attributes {Black, White}× {Female, Male}. 人口統計学的属性 {Black, White}× {Female, Male} を考える。 0.77
We focus on the group Black Female to center their experience, and because this group is the most underrepresented across these datasets and thus more likely to face underrepresentation. そして、このグループはこれらのデータセットの中で最も過小評価されているため、過小評価に直面する可能性が高いからです。
訳抜け防止モード: 黒人女性グループに焦点を合わせ 経験を集中させることです そして、このグループはこれらのデータセットの中で最も過小評価されているため、過小表示に直面しやすい。
0.65
We perform these experiments using the Baseline model. ベースラインモデルを用いてこれらの実験を行う。 0.74
We first investigate subgroup predictivity differences. まず,サブグループ予測性差について検討する。 0.49
To do so, we train only on individuals from one of the four groups at a time, controlling for the number of training samples to be constant, and test on Black Female. そのために、同時に4つのグループのうちの1つから個人にのみトレーニングを行い、トレーニングサンプルの数が一定になるように制御し、Black Womenでテストします。 0.84
For example, by comparing the AUC of Black Female when trained on 𝑛 samples of White Female as compared to when trained on 𝑛 samples of Black Female, we can understand whether there is a predictivity difference between the two. 例えば、白人女性のnサンプルで訓練された時の黒人女性のaucと、黒人女性のnサンプルで訓練された場合と比較すると、両者の間に予測性の違いがあるかどうかが分かる。 0.72
Our results across the three datasets are in Tbl. 3つのデータセットにわたる結果がTblにあります。 0.62
1, where we can see that while for ACSIncome the model is able to achieve roughly the same AUC on Black Female no matter the group it was trained on, for ACSPublicCoverage and ACSTravelTime, Black Female has the highest AUC when a model is trained on members from the same group, rather than a different group. ACSIncomeでは、モデルはトレーニングされたグループであってもほぼ同じAUCをBlack Womenで達成できますが、ACSPublicCoverageとACSTravelTimeでは、Black Womenは、別のグループではなく、同じグループからトレーニングされたモデルが最も高いAUCを持っています。 0.64
This indicates that in these two datasets, Black Female is differently predictive from other groups such that any model without sufficient samples of Black Female may not perform as well, and thus an underrepresentation of Black Female training samples may be of concern. この2つのデータセットでは、ブラックウーマンの十分なサンプルのないモデルでは、ブラックウーマンのトレーニングサンプルの不足が懸念されるなど、ブラックウーマンは他のグループとは異なる予測が可能であることを示している。 0.67
This is not true in ACSIncome, since an underrepresented group like Black Female shares predictivity with other groups for which there are sufficient training samples. 黒人女性のような表現不足のグループは、十分なトレーニングサンプルがある他のグループと予測性を共有しているため、ACSIncomeではそうではない。 0.65
We are now faced with the finding that in ACSPublicCoverage and ACSTravelTime, the group Black Female is differently predictive such that a model trained without sufficient examples of this group will not perform as well. ACSPublicCoverageとACSTravelTimeでは、ブラックウーマン(Black Women)という集団は、このグループの十分な例なしに訓練されたモデルが同じように動作しないように、予測的に異なる。 0.75
To address this concern, we can consider the known structure in intersectional data that can be leveraged. この懸念に対処するために、活用可能な交叉データの既知の構造を考えることができる。 0.65
In other words, 12We ignore base rate differences because these are easier to account for using post-processing approaches that learn a minimal number of parameters. 言い換えれば、 12) 最小のパラメータを学習する後処理アプローチの使用を考慮し易いため,ベースレートの違いは無視する。 0.67
10 10 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Table 1. For the three datasets, Black Female AUC with 95% confidence interval is shown when trained on only one subgroup at a time. 表1。 3つのデータセットに対して、95%の信頼区間を持つ黒人女性AUCは、一度に1つのサブグループでのみ訓練されたときに示される。 0.67
By comparing AUC across different training subgroups, differing predictivities can be seen. 異なるトレーニングサブグループ間でAUCを比較することで、異なる予測性が見られる。 0.61
For ACSIncome, the predictivity of Black Female does not differ much from other groups, but this is not true for ACSPublicCoverage and ACSTravelTime. ACSIncomeでは、黒人女性の予測率は他のグループとあまり変わらないが、ACSPublicCoverageやACSTravelTimeには当てはまらない。 0.67
Dataset ACSIncome データセット ACSincome 0.42
ACSPublicCoverage ACSPublicCoverage 0.43
ACSTravelTime ACSTravelTime 0.42
Black Female 75 ± 2 74±1 67±2 黒人女性 75 ± 2 74±1 67±2 0.70
White Female 77 ± 2 71 ± 1 63 ± 2 白人の女性 77 ± 2 71 ± 1 63 ± 2 0.57
Black Male 75 ± 1 73 ± 2 64 ± 2 黒人の男性 75 ± 1 73 ± 2 64 ± 2 0.58
White Male 76 ± 1 72 ± 2 59 ± 1 白人の男性 76 ± 1 72 ± 2 59 ± 1 0.57
Fig. 3. For two datasets that exhibit subgroup predictivity difference, we investigate the intersectional predictivity difference. 図3。 サブグループ予測率差を示す2つのデータセットについて,交差予測率差について検討する。 0.55
The orange dashed “BM+WF” line represents the highest Black Female (BF) AUC achievable when only trained on a combination of Black Male (BM) and White Female (WF). オレンジ色の "BM+WF" ラインは、Black Male (BM) とWhite Women (WF) の組み合わせでのみトレーニングを行う場合、最も高い黒人女性 (BF) AUCを達成可能である。 0.81
The blue solid line “BM+WF+BF” represents the BF AUC when samples of this particular group are added into the training set. ブルーソリッドライン「bm+wf+bf」は、トレーニングセットに特定のグループのサンプルを追加するとbf aucを表す。 0.70
Shaded region indicates 95% confidence interval. シェード領域は95%信頼区間を示す。 0.80
Training samples are controlled for such that every data point has been trained on the same number of samples. トレーニングサンプルは、すべてのデータポイントが同じ数のサンプルでトレーニングされているように制御される。 0.78
The left graph shows that replacing individuals from BM+WF with BF does not increase the AUC of BF very much, indicating there is likely no intersectional predictivity difference. 左のグラフは、BM+WF から BF への置き換えは BF の AUC をそれほど増やさないことを示している。
訳抜け防止モード: 左のグラフは 個人をbm+wfからbfに置き換える bfのaucをあまり増加させません 交叉予測性差がおそらく存在しないことを示す。
0.75
The right graph shows the addition of BF individuals does increase the AUC of BF, indicating the presence of an intersectional predictivity difference. 右グラフはbf個体の追加がbfのaucを増加させ、交叉予測性差の存在を示すことを示している。 0.77
there may be something about the predictivity of Black Female that we can learn from Black Male or White Female. 黒人女性の予測には、黒人男性や白人女性から学ぶことができるものがあるかもしれない。 0.77
To understand the limit of this structure, and the extent to which there is an extra intersectional effect whereby there remains predictivity differences about Black Female that cannot be learned from the groups of Black and Female, we consider a different experiment. この構造の限界と、黒人と女性のグループから学べない黒人女性について、予測的差異が残る余分な交叉効果の程度を理解するために、異なる実験を考察する。
訳抜け防止モード: この構造の限界と、それによる余分な交叉効果が存在する範囲を理解すること。 黒人女性と女性グループから学べない黒人女性について、予測性の違いは依然として残っている。 別の実験を考えてみましょう
0.76
We operationalize the limit of what can be learned from the groups that share identities with Black Female, without training on any members from this group itself, by picking the ratio of White Female to Black Male training samples that results in the highest AUC performance on a validation set of Black Female. 我々は,黒人女性と同一性を共有するグループから学べることの限界を,白人女性と黒人男性のトレーニングサンプルの比率を選別し,黒人女性と同一性を共有するグループから学べることの限界を運用する。
訳抜け防止モード: 私たちは、そのグループから学べることの限界を運用します。 ブラック・ウーマンとアイデンティティを共有する このグループ自体のいかなるメンバーも訓練せずに。 白人の女性と黒人の男性のトレーニングサンプルの比率を選ぶことで その結果、ブラックウーマンの検証セットで最も高いAUCパフォーマンスが得られる。
0.75
We perform this experiment for ACSPublicCoverage and ACSTravelTime, and in Fig 3 (left) see that for ACSPublicCoverage, while Black Female has a unique subgroup predictivity, this difference can largely be learned from groups with shared characteristics, i.e., White Female and Black Male. 我々は, acspubliccoverage と acstraveltime についてこの実験を行い, 図3 (左) では, acspubliccoverage では, 黒人女性には独自のサブグループ予測性があるが, この違いは, 白人女性と黒人男性という, 共通の特徴を持つグループから学べる。 0.72
On the other hand, in Fig 3 (right) for ACSTravelTime, training only on groups that share characteristics with Black Female results in a AUC lower than what can be achieved when trained on the actual group tested upon. 一方、acstraveltimeの図3(右)では、黒人女性と特徴を共有するグループのみを訓練すると、実際のグループで訓練した場合に達成できるよりもaucが低くなる。
訳抜け防止モード: 一方、ACSTravelTimeの図3(右)では、トレーニングはグループでのみ行われます。 黒人女性との共通性はAUCよりも低い 実際にテストされたグループのトレーニングで 達成できるものよりも大きいのです
0.69
Although these results are somewhat noisy, they suggest that for this dataset and model, there may be an extra intersectional predictivity unique to Black Female. これらの結果はやや騒がしいが、このデータセットとモデルには、黒人女性特有の交叉予測性が余分に存在する可能性がある。 0.74
Thus, our two experiments tell us the following: ACSIncome - no subgroup predictivity difference, ACSPublicCoverage - subgroup but not intersectional predictivity difference, and ACSTravelTime - both a subgroup and intersectional predictivity difference. ACSIncome - no subgroup predictivity difference, ACSPublicCoverage - subgroup but not crossal predictivity difference, ACSTravelTime - both a subgroup and crossal predictivity difference。
訳抜け防止モード: そこで,この2つの実験から, acsincome - no subgroup predictivity difference が得られた。 acspubliccoverage - 交叉予測性差ではなく部分群であり、acstraveltime - 部分群と交叉予測性差の両方である。
0.66
Based on these results, ACSPublicCoverage appears eligible for leveraging dataset structure to alleviate an underrepresentation of the Black Female group. これらの結果に基づいて、ACSPublicCoverageはデータセット構造を活用して、黒人女性グループの過小評価を緩和する。 0.74
This means that algorithms need to incorporate additional axes of identities in a more structured way than just encoding the conjunction of attributes, e g , race-sex. これは、アルゴリズムが属性、例えばレースセックスの結合をエンコードするよりも、より構造化された方法でアイデンティティの軸を追加する必要があることを意味する。 0.58
We emphasize that these results on predictivity do not make any claims about the societal causes of these effects. 予測性に関するこれらの結果は、これらの効果の社会的原因についていかなる主張もしていないことを強調する。 0.57
11 11 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
5.3 Constructive Suggestions In Sec. 5.1 we warn against transferring existing data imbalance methods to handle the progressively smaller groups that will arise in intersectionality without first giving careful consideration to normative concerns. 5.3 建設的提案 5.1 交叉性で発生する漸進的に小さいグループを扱うために既存のデータ不均衡メソッドを、まずは規範的な懸念を慎重に考慮せずに移行することを警告する。 0.70
In Sec. 5.2, we provide an initial exploration into a direction that leverages the structure in the data to learn about an underrepresented group from other groups it shares identities with. Sec 5.2では、データの構造を利用して、IDを共有する他のグループから不足表現されたグループについて学習する方向を最初に調査する。 0.71
We recommend performing data analysis like we have shown to demonstrate whether this may be a suitable approach to proceed with for a particular algorithm and task. 特定のアルゴリズムやタスクに対して、これが適切なアプローチであるかどうかを示すために、我々が示したようにデータ分析を行うことを推奨する。 0.70
However, this approach comes with significant caveats. しかし、このアプローチには重大な注意点がある。 0.55
Relying on it too much can counteract the purpose of intersectionality, and the unique effects that multiply marginalized groups experience. 過剰に頼りすぎれば、交叉性という目的や、辺縁化群が経験するユニークな効果に逆らうことができる。 0.55
Prior work warns against treating intersectionality as a variable to be controlled for in an additive or multiplicative way [55, 113], and though our use of a multi-layer perceptron allows differences in predictivity to be captured in more complex ways than as a regression variable, we emphasize that mathematical structure in no way implies societal structure. 先行研究は,加法的あるいは乗法的に制御される変数として交叉性を扱うことを警告している [55, 113] 。多層パーセプトロンを用いることで,回帰変数よりも複雑な方法で予測性の違いを捉えることができるが, 数学的構造が社会構造を意味するものではないことを強調する。 0.81
For example, structure in the data does not preclude the idea that gender can only be understood in a racialized way, and vice versa [113]. 例えば、データの構造は、性別は人種化された方法でしか理解できないという考えを妨げず、その逆は[113]である。 0.79
6 EVALUATING A LARGE NUMBER OF GROUPS Finally, we consider the problem of evaluation, and how extrapolating existing metrics is insufficient when the number of subgroups considered increases. 6 GROUPの総数評価 最後に, 評価の問題と, 検討対象のサブグループ数が増加すると, 既存の指標の補間が不十分になるかを検討する。 0.76
In the binary attribute setting, fairness evaluation frequently takes the form of the difference between the groups for some performance measure derived from the confusion matrix. 二項属性設定では、乱雑行列から派生したパフォーマンス指標に対するグループ間の差異の形式をフェアネス評価が頻繁に取る。 0.74
When more than two groups are considered, the evaluation metrics look similar in that they are generalized versions, rarely with changes to account for the incorporation of additional groups. 2つ以上のグループを考慮すると、評価指標は一般化されたバージョンであるため似ており、追加グループの導入を考慮した変更はめったにない。 0.74
They are commonly formulated in terms of the maximum difference (or ratio) of a performance metric either between one group to that of all [53, 77, 121], or between two groups [40, 46]. これらは一般に、1つのグループから全ての[53, 77, 121]、または2つのグループ[40, 46]の間のパフォーマンスメトリックの最大差(または比率)で定式化される。 0.86
We go over problems with both conceptualizations, and then offer suggestions for additional metrics to measure—notably, that it is important to consider the relative rankings of demographic groups. 両方の概念化に関する問題を克服し、測定すべき追加の指標(特に、人口統計グループの相対的なランキングを考えることが重要である)を提案する。 0.65
6.1 Weaknesses of existing evaluation approaches One-vs-all metrics will far more frequently measure minority groups to have the highest deviation, because inherently the majority group has the most influence over what the “all” is. 6.1 既存の評価アプローチの弱さ 1-vs-allの指標は、少数派を最も偏差が大きいように、はるかに頻繁に測定する。 0.58
In the other conceptualization via pairwise comparisons, only the values of two groups, usually the maximum and minimum, are being explicitly incorporated while the rest are ignored. 対比較による他の概念化では、2つの群の値(通常最大値と最小値)のみが明示的に組み込まれ、残りは無視される。 0.79
The more groups there are as a result of incorporating more axes and identities, the more values are ignored. より多くの群がより多くの軸とアイデンティティを組み込んだ結果、より多くの値が無視される。 0.74
For example, when using max TPR difference in a setting with three demographic groups, we might imagine two different scenarios such that in one, the three groups’ TPRs are {.1, .2, .8}, and in another, they are {.1, .6, .8}. 例えば、3つの人口統計グループでmax tpr差分を使用する場合、1つは3つのグループのtprが {.1, .2, .8} であり、もう1つは {.1, .6, .8} であるような2つの異なるシナリオを想定できる。 0.82
Both would report the same measurement of .7, despite coming from different distributions. どちらも異なる分布から来るにもかかわらず、.7と同じ測定値を示した。 0.69
We term the family of evaluation metrics that encompasses both of these categories to be “max difference.” これら2つのカテゴリを包含する評価指標のファミリを“最大差”と呼ぶ。 0.69
In line with existing work [40, 77, 121], our max TPR difference defined in Sec. 3 is of this variety. 既存の作業[40, 77, 121]に従って、Sec.3で定義された最大TPR差は、この変種である。 0.76
However, there are significant problems with this formulation, even in the binary attribute setting. しかし、バイナリ属性の設定においても、この定式化には重大な問題がある。 0.58
Because the mathematical notation for these fairness constraints is often formulated using parity (e g , for groups 𝑔1 and 𝑔2, 𝑇 𝑃𝑅(𝑔1) = 𝑇 𝑃𝑅(𝑔2)), an absolute value is sometimes applied to the difference, which would obscure whether an algorithm has over- or under-corrected. これらの公平性の制約に対する数学的表記はしばしばパリティ(例えば群 g1 と g2, t pr(g1) = t pr(g2))を用いて定式化されるので、絶対値が差分に適用されることがある。 0.72
To demonstrate further shortcomings, we first consider the ACSIncome dataset and the demographic groups of {Black, White}× {Female, Male}. さらなる欠点を示すために、まずACSIncomeデータセットと {Black, White}× {Female, Male} の人口群について考察する。 0.80
To get an idea of fairness concerns we miss by only considering a max difference metric like max TPR difference, we also calculate an additional metric that includes a notion of group rank. 公平性に関する考えを得るには、max tpr差分のような最大差分メトリックを考慮すればよいが、同時に、グループランクの概念を含む追加のメトリックも計算する。 0.76
For Group A which has the lowest positive label base rate of the four groups, and Group B which has the highest, we report the 4つのグループで最下位のラベルベースレートを持つグループAと、最上位のグループBについては、報告する。 0.74
12 12 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Table 2. In ACSIncome, Group A has the lowest base rate, and Group B has the highest. 表2。 ACSIncomeでは、Aグループが最も低いベースレートを持ち、Bグループが最も高い。 0.75
After training to lower max TPR difference, all algorithms except GRP improve upon the baseline. TPR差を最大に抑えるためのトレーニングの後、GRP以外のアルゴリズムはすべてベースラインを改善する。 0.75
However, all consistently rank Group B above Group A, reifying this hierarchy. しかし、全ての群は群 B を A より上位にランクし、この階層を改定する。 0.59
Algorithm Max TPR Difference (%) Average Group アルゴリズムの最大TPR差(%)平均群 0.83
Average Group A Rank B Rank Baseline RWT RDC LOS GRP GRY 平均群 位階 b級 ベースラインRWT RDC LOS GRP GRY 0.57
13.9 ± 2.9 2.8 ± 0.4 3.0 ± 1.2 4.7 ± 1.8 18.2 ± 1.2 6.7 ± 1.1 13.9 ± 2.9 2.8 ± 0.4 3.0 ± 1.2 4.7 ± 1.8 18.2 ± 1.2 6.7 ± 1.1 0.26
4.0 3.0 3.0 3.6 4.0 4.0 4.0 3.0 3.0 3.6 4.0 4.0 0.22
1.0 1.6 1.4 1.0 1.0 1.0 1.0 1.6 1.4 1.0 1.0 1.0 0.22
ranking of their TPR (from 1 to 4 with 1 as the highest) relative to the other groups. tprのランキングは、他のグループに比べて1位から4位まで(最高位は1位)。 0.66
In Tbl. 2 we see that across all algorithms, even if fairness is improved from the Baseline model, Group A’s ranking is consistently low while Group B’s is consistently high, and always higher than that of Group A’s. tblで ベースラインモデルから公平性が改善されても、グループaのランキングは一貫して低く、グループbは一貫して高く、グループaよりも常に高い。
訳抜け防止モード: tblで たとえFairnessがBaselineモデルから改善されたとしても、すべてのアルゴリズムにまたがって見られます。 グループAのランキングは一貫して低い グループBは一貫して高く、グループAよりも常に高い。
0.50
This is crucial to know because despite a fairness criteria of max difference below some 𝜖 being satisfied, the consistent ranking of one group below another compounds in a way to further systematic discrimination [25]. これは、いくつかのε未満の最大差の公平性基準にもかかわらず、より体系的な識別のために、ある群が他の化合物よりも一貫性のあるランク付けを行うことが重要である[25]。 0.56
That there is a correlation between max TPR difference and group ranking in this scenario does not negate the importance of one metric or the other, as they each convey different information. このシナリオでは、最大TPR差とグループランキングの間に相関関係があることは、それぞれが異なる情報を伝えるため、1つのメートル法の重要性を否定しない。 0.80
In our next experiment, we consider when there are many more than four subgroups and look at a new metric that measures the correlation between the rankings of 次の実験では、4つ以上の部分群が存在する場合について検討し、ランクの相関を測る新しい指標を検討する。 0.73
a) base rates and b) TPRs after the fairness algorithm has been applied. a)ベースレートと b) フェアネスアルゴリズムの後のtprが適用されていること。 0.70
This ranking correlation helps us understand to what extent the underlying social hierarchy is upheld.13 このランキング相関は、根底にある社会的階層がどの程度支持されているかを理解するのに役立つ。
訳抜け防止モード: このランキングの相関は 社会階層がどれだけ維持されているか 理解しています
0.61
The higher the correlation between these two sets of rankings, the more we are reifying a particular hierarchy of subgroups and entrenching existing disparities in the data. これら2つのランキングの相関が高ければ高いほど、サブグループの特定の階層を再定義し、データ内の既存の相違点を絡めるようになる。 0.70
We use Kendall’s Tau [78] as a measure of rank correlation, and combine the p-values obtained across runs of random seeds using Fisher’s combined probability test [38]. 我々はkendallのtau[78]をランク相関の尺度として使用し,fisherの複合確率検定[38]を用いてランダム種子のランで得られたp値を組み合わせた。 0.87
Our results are in Fig 4, and we only display the Kendall’s Tau value when it is statistically significant with 𝑝 < .05. 結果は図4で示され、Kendall's Tau の値は p < .05 で統計的に有意である場合にのみ表示される。 0.73
For the two graphs on the left, in Fig 4 左側の2つのグラフについて、図4で 0.85
(a) we hold the dataset constant and vary the axes of demographic attributes, and in Fig 4 a) データセットを一定に保ち、人口特性の軸を変化させ、図4で示す。 0.73
(b) we hold the axes of demographic attributes constant and vary the dataset. (b)人口属性の軸を一定に保ち、データセットを変化させる。 0.70
We see that there are trends across algorithms (RWT and RDC are less likely to reify underlying rankings compared to GRP and GRY), demographic attributes (for ACSIncome, marital status x sex has predictive patterns more likely to reify underlying rankings), and dataset (for marital status x sex x disability, ACSMobility has predictive patterns less likely to reify underlying rankings). アルゴリズムにまたがる傾向(RWTとRDCは、GRPやGRYに比べて下位のランキングを改定する傾向が低い)、人口統計特性(ACSIncomeの場合、結婚ステータスxexは、下位のランキングを改定する傾向が強い)、データセット(結婚ステータスxx障害の場合、ACSMobilityは、下位のランキングを改定する傾向が低い)がある。
訳抜け防止モード: アルゴリズムにまたがる傾向が見られます。 RWT と RDC は GRP や GRY に比べて下位のランキングを改定する可能性が低い ACSIncomeでは、婚姻状況xセックスは、下位のランキングを改定する確率の高い予測パターンを持つ)。 ACSMobilityのデータセット(結婚状況 x sex x 障害の場合、ACSMobilityは、下層のランキングを改定する可能性が低い)。
0.69
In Fig 4 (c) we now take the setting from the first row of Fig 4 図4では (c)図4の最初の行から設定を取ります 0.76
(a) and compare the two metrics of max TPR difference and our Kendall’s Tau ranking correlation. (a)最大TPR差とKendall’s Tauランキング相関の2つの指標を比較してみましょう。 0.80
This shows two weaknesses with existing max difference metrics. これは、既存の最大差のメトリクスで2つの弱点を示す。 0.57
The first, also demonstrated by Tbl. 第1弾はTblでも披露された。 0.54
2, is that additional information about how closely a model’s outputs adhere to underlying rankings provides an important and new perspective in understanding a model, as across five of the six algorithms, there is a statistically significant correlation in ranking. 6つのアルゴリズムのうち5つが統計的に有意な相関関係にあるように、モデルのアウトプットが下位のランキングにどの程度密着しているかに関する追加情報は、モデルを理解する上で重要で新しい視点を提供する。 0.78
The second, is that across-algorithm comparisons can lead to conflicting conclusions, as each metric conveys a different algorithm to be more “fair.” 2つ目は、各計量が異なるアルゴリズムをもっと「フェア」に伝達するので、アルゴリズム間の比較が矛盾する結論につながることだ。 0.73
Under max TPR difference, GRY is best, whereas for ranking correlation, it is RWT. 最大TPR差では、GRYが最適であるが、ランキング相関ではRWTである。 0.67
These trade-offs need to be navigated by someone informed of the downstream application, and not implicitly ignored through the measuring of just one metric or another.14 13We note here a difference in what we are proposing from the syntactically similar space of fairness in rankings [114, 123] There, those being ranked are individuals, and the goal is to more closely align to a set of ground-truth rankings. これらのトレードオフは、下流のアプリケーションについて知らされた誰かによってナビゲートされる必要があり、1つ以上のメトリックの測定によって暗黙的に無視されることはありません。 ここで注意すべきなのは、ランキング[114, 123]において、構文的に類似したフェアネスの空間から提案されているものの違いです。 0.68
Here, those being ranked are the aggregate evaluation metrics of demographic groups, and the goal is to surface alignment to existing rankings as a way of providing additional understanding about a model. ここで、ランク付けされるのは、人口統計グループの総合評価指標であり、モデルに関するさらなる理解を提供する方法として、既存のランキングを表面化することを目的としている。 0.62
14Across both experiments from Tbl. 14 Tblからの2つの実験。 0.70
2 and Fig 4, we are not comparing positive predictive value (PPV), but rather True Positive Rate (TPR), which is anchored in the 𝑦 labels as the ground truth. 2 と Fig 4 の比較では,正の予測値 (PPV) ではなく,y ラベルに固定された正の正の正の値 (TPR) を基本真理として比較している。 0.76
In other words, we are taking a rather conservative approach to fairness [40], because even in a scenario where TPRs are equal, PPVs could still exactly correlate with base rates. 言い換えれば、TPRが等しいシナリオであっても、PPVは依然としてベースレートと完全に相関しているため、かなり保守的なアプローチを取っています [40]。 0.72
That even under this more conservatively fair conception the existing inequalities are reified so strongly, signifies one can only imagine how much larger the inequalities would be when considering PPV. このより保守的に公正な概念の下でも、既存の不等式は強く改定され、PSVを考えるときの不等式がどれほど大きいかしか想像できないことを示す。
訳抜け防止モード: このより保守的な公正な概念の下でも、既存の不等式は強く改定される。 PPVを考えるときの不等式がどれほど大きいかしか想像できないことを示す。
0.57
13 13 0.85
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
Fig. 4. In (a) we hold dataset constant and vary the axes of demographic attributes, and in 図4。 院 a) データセットを一定に保持し、人口統計特性の軸を変動させ、 0.60
(b) we hold demographic attributes constant and vary the dataset. b) 人口統計属性を一定に保持し、データセットを変化させる。 0.61
We discern trends across algorithms (RWT and RDC are less likely to reify hierarchies compared to GRP and GRY), demographic attributes (for ACSIncome, marital status x sex has predictive patterns more likely to entrench hierarchies), and dataset (for marital status x sex x disability, ACSMobility has predictive patterns least likely to entrench hierarchies). アルゴリズム(RWTとRDCは、GRPやGRYに比べて階層化の可能性が低い)、人口統計特性(ACSIncomeの場合、婚姻状況xexは階層化の可能性が低い)、データセット(親族化の傾向xex障害の場合、ACSMobilityは階層化の可能性が低い予測パターンを持つ。 0.67
In (c) we display the first row of 院 (c)最初の行を表示します 0.62
(a)’s max TPR difference and Kendall’s Tau correlation values. (a)最大TPR差とKendallのTau相関値。 0.26
We find that correlations between base rates and TPRss remain high across five of the six algorithms, and that the two metrics present different pictures of which algorithms perform best. ベースレートとtprsの相関関係は6つのアルゴリズムのうち5つで高いままであり、この2つの指標はアルゴリズムの最も優れた性能を示す異なる画像を示す。 0.73
The use of max difference metrics is emblematic of a larger trend in machine learning whereby all categories are generally treated the same. 最大差分メトリクスの使用は、一般的にすべてのカテゴリが同じ扱いを受ける機械学習における大きなトレンドの象徴である。 0.78
Although sometimes labels are treated differently, e g , medical and self-driving car domains where FNs are more significant than FPs, this is a difference in the label rather than subgroup. 例えば、fnsがfpsよりも重要となる医療ドメインや自動運転ドメインのようにラベルが異なる場合もありますが、これはサブグループではなくラベルの違いです。 0.73
It would make no difference to a model or evaluation metric if the labels for Black Female and White Male were swapped — a surprising statement when considering intersectionality and the importance of the history of oppressed groups. 黒人女性と白人男性のラベルが交換された場合、モデルや評価基準には何ら違いはない。
訳抜け防止モード: もしそれがモデルや評価基準に何ら影響を与えないなら 黒人女性と白人男性のラベルは交換されました ビックリした発言 交叉性と抑圧された集団の歴史の重要性を考える。
0.74
As machine learning fairness begins to consider intersectionality, we need to resist evaluation metrics that do not substantively incorporate additional considerations, and merely extrapolate from existing metrics. 機械学習の公平さが交差性を考慮するようになると、我々は既存のメトリクスから外挿するような追加の考慮を実質的に含まない評価指標に抵抗する必要がある。 0.60
This is not to say that max difference isn’t useful, but rather that we should also consider others. これは、maxの違いが役に立たないという意味ではなく、他のものも考慮すべきである。 0.75
6.2 Constructive Suggestions We offer suggestions on being more thoughtful with pairwise comparisons, as well as additional types of evaluation.15 6.2 構成的提案 ペア比較においてより熟慮すべきこと、および追加評価の種類について提案する。15 0.75
If pairwise comparisons are to be done, machine learning practitioners can learn from other disciplines. ペアで比較を行う場合、機械学習の実践者は他の分野から学ぶことができる。 0.73
When social scientists leverage pairwise comparisons in studying intersectionality, they often do so with more deliberate thought put into the pairings, i.e., with a context-first rather than numbers-first approach (e g , between the max and min). 社会科学者が交叉性の研究においてペアワイズ比較を利用するとき、それらはしばしばペアリング(すなわち、最大と分の間の)よりも文脈優先のアプローチで、より慎重な思考で行う。 0.74
As noted by McCall [92], “although a single social group is the focus of intensive study, it is often shown to be different and therefore of interest through an extended comparison with the more standard groups that have been the subject of previous studies.” McCall [92] は、「単一の社会集団は集中的な研究の焦点であるが、しばしば異なることが示され、それ故に、以前の研究の主題であったより標準的なグループとの比較を通じて、興味が示される」と述べている。 0.80
The author gives examples like comparing “working-class women to working-class men [41]” and “Latina domestic workers to an earlier generation of African American domestic workers [63].” 著者は「労働者階級の女性と労働者階級の男性 [41] 」と「ラティナ家庭労働者とアフリカ系アメリカ人の家庭労働者 [63] 」を比較した例を示している。 0.67
There has been 15Aggregating a set of input values into one summary output is akin to the economic framework of social choice theory. ありました 15 入力値の集合を1つの要約出力に集約することは、社会選択理論の経済枠組みに似ている。
訳抜け防止モード: ありました 15 入力値の集合を1つの要約出力に集約する 社会選択論の経済枠組みに似ています
0.72
Social choice theory handles the aggregation of a set of individual’s inputs, which typically take the form of preferences, votes, welfare, etc. 社会的選択理論は、個人の入力の集合を処理し、通常、好み、投票、福祉などの形式を取る。 0.65
[5]. Each individual has an input utility value under each possible world state, and an aggregation rule is chosen over the inputs in order to pick the best world state. [5]. 各個人は、可能世界状態の下に入力ユーティリティ値を有し、最良の世界状態を選択するために、入力に対して集約ルールが選択される。 0.53
We could imagine leniently conceiving of each individual in the set to be a different pair of demographic subgroups, with its corresponding utility being the negative TPR difference between them. 集合内の各個体の寛大な認識は、異なる人口層サブグループであり、それに対応するユーティリティはそれらの間の負のtpr差であると考えることができる。 0.69
The different world states are then the set of all possible model predictions. 異なる世界状態は、可能な全てのモデル予測の集合である。 0.81
Under this conception, max TPR difference would map to the egalitarian aggregation rule [103], which maximizes the minimum utility of all individuals (i.e., minimizing the max pairwise TPR difference). この概念の下では、最大TPR差は平等的集約規則 [103] にマッピングされ、これは全ての個人(すなわち最大対TPR差を最小化する)の最小限の効用を最大化する。 0.77
Under a different, utilitarian aggregation rule [94, 97], we would instead maximize the sum of the utility values (i.e., minimize the sum of pairwise TPR differences). 異なる実用的集約ルール [94, 97] の下では、実用値の和を最大化する(すなわち、ペアのTPR差の和を最小化する)。 0.70
Ultimately we did not further explore this perspective because our focus is to expand out beyond this flavor of aggregation; however, one could imagine this to be a direction of exploration, e g , by conceiving of individuals to be an entity other than a pair of demographic subgroups. 究極的には、この視点は、このアグリゲーションのフレーバーを超えて拡張することを目的としているため、さらなる研究は行わなかったが、これは、例えば、個人を2つの人口サブグループ以外のエンティティとして考えることによって、探索の方向であると想像できるだろう。 0.63
14 14 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
work in machine learning that used a somewhat context-first approach in intersectional evaluations, but frequently default to anchoring comparisons to the most privileged group, e g , white men [117, 118], or the least privileged group [118]. 交叉評価において幾分文脈優先のアプローチを用いた機械学習の仕事は、多くの場合、最も特権のあるグループ、例えば白人[117, 118]、または最も特権の少ないグループ[118]との比較をアンカーすることをデフォルトにしている。 0.76
However, this can reify the norm of the privileged as default, a complaint that has been made about certain intersectionality frameworks [16]. しかし、これは特定の交叉性フレームワーク [16] に関してなされた苦情である、デフォルトとして特権の規範を正すことができる。 0.62
Johfre and Freese [72] note that even if done out of convention, comparing relative to a dominant group can reify the notion that they are the norm. johfre と freese [72] は、たとえ慣例から外れたとしても、支配的なグループと比較しても、それらが規範であるという考えを正当化することができることに注意する。
訳抜け防止モード: Johfre と Freese [72 ] は、たとえコンベンションが終わったとしても、注意する。 支配的なグループと比較して 標準であるという考えを 再定義できます
0.61
The paper puts forth concrete guidelines on how to better choose the reference category, and though not specific to intersectionality, can help us navigate how to be more deliberate with any pairwise comparisons that need to be performed. 論文は、参照カテゴリをより適切に選択する方法に関する具体的なガイドラインを公開し、交差性に特化していないが、実行すべき任意のペアワイズ比較に対して、より慎重に行動する方法をナビゲートするのに役立ちます。
訳抜け防止モード: 本論文は、参照カテゴリをより適切に選択する方法に関する具体的なガイドラインを提示する。 交差に特化してはいませんが ペアワイズの比較を より慎重に行う方法が 必要です
0.70
While we point to their work for details, this includes heuristics such as if some group is defined as the negation of another or if certain categories unfold from one singular group. 詳細については、ある群が別の群の否定として定義される場合やある圏がある特異群から展開される場合などのヒューリスティックスを含む。 0.65
Reporting disaggregated analyses for all subgroups would of course alleviate many of these problems, and should be done before deployment [8], but for iterating on model training can be unwieldy. すべてのサブグループに対する非凝集分析の報告は、もちろんこれらの問題の多くを緩和し、[8]デプロイ前に行うべきですが、モデルトレーニングの反復は扱いにくいものです。 0.63
Additional “summary statistics” that involve just adding one or two more bits of information, such as the metrics we show in Sec. 6.1 of the ranks of the groups with the highest and lowest base rate or the correlation between the rankings of the base rates and model TPRs, would greatly supplant just the pairwise difference. 追加の「総統計」は、我々がsecで示している、最高と最低のベースレートを持つグループのランクの6.1や、ベースレートのランクとモデルtprの相関など、1つまたは2つ以上の情報を追加するだけで、ペアワイズの違いに取って代わることができる。 0.68
While each individual algorithm may seem fair, if each algorithm has group A’s TPR 𝜖 below group B’s, this can have significant compounding impacts on individuals from group A [25]. 各アルゴリズムは公平に思えるかもしれないが、各アルゴリズムが群Aの TPR ε を群Bの下に置くと、これは群A[25] の個人に顕著な複合効果をもたらす。 0.83
7 CONCLUSION In this work, we consider the problems that machine learning fairness will need to grapple with as it endeavours upon the process of incorporating intersectionality. 7 ConCLUSION 本研究では,機械学習フェアネスが,交差性を取り入れるプロセスにおいて,その課題に対処する必要があることを考察する。 0.74
We provide guidance on three practical concerns along the machine learning pipeline. 機械学習パイプラインに沿った3つの実践的関心事に関するガイダンスを提供する。 0.57
For which identities to consider, we recommend evaluating on the most granular intersecting identities available in the dataset, but combining domain knowledge with experiments to understand which are best to include when training models. 検討すべきアイデンティティについては、データセットで利用可能な最も粒度の細かい交差IDの評価を推奨するが、ドメイン知識と実験を組み合わせることで、モデルをトレーニングする時に最も適しているものを理解することを推奨する。 0.52
For how to handle the increasingly small groups, we caution against porting over existing machine learning techniques for imbalanced data due to their additional normative concerns, and offer a suggestion about leveraging structure that may be present between groups that share an identity. ますます小さなグループをどう扱うかについては、既存の機械学習テクニックを不均衡なデータに移植することに対して、追加の規範的な懸念から注意し、アイデンティティを共有するグループ間で発生する可能性のある構造を活用するための提案を提供する。 0.66
And finally for evaluation of a large number of subgroups, we both suggest how one could more thoughtfully conduct pairwise comparisons as well as present additional metrics to capture broader patterns of algorithms which existing metrics may obscure. そして最後に、多数のサブグループを評価するために、ペアワイズ比較をより慎重に行う方法と、既存のメトリクスが見えないかもしれないより広範なアルゴリズムパターンを捉えるための追加メトリクスを提案する。 0.73
These are just a few of the many steps that will need to be taken to incorporate intersectionality into machine learning, and we encourage the machine learning community to grapple with the complexities of intersectionality beyond just conceptualizing it as multi-attribute fairness. これらは、機械学習に交差性を組み込むために必要な多くのステップのごく一部にすぎない。機械学習コミュニティは、交差性の複雑さに対処し、それをマルチ属性フェアネスとして概念化することを推奨しています。 0.63
8 POSITIONALITY STATEMENT All authors are computer scientists by training, and despite having worked on ML fairness, we do not have traditional social science backgrounds. 8 POSITIONALITY STATement 著者全員がコンピュータ科学者で、MLフェアネスに取り組んできたにも関わらず、従来の社会科学の背景はありません。 0.66
Additionally, there are group identities we discuss that we don’t have lived experiences for. さらに、私たちが生きた経験を持っていないことを議論するグループアイデンティティもあります。 0.68
ACKNOWLEDGMENTS This material is based upon work supported by the National Science Foundation under Grant No. 1763642, Grant No. 2112562, and Graduate Research Fellowship to AW. ACKNOWLEDGMENTS この資料は、Grant No. 1763642, Grant No. 2112562, Graduate Research Fellowship to AWの下で国立科学財団が支援した研究に基づいている。 0.83
Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not necessarily reflect the views of the National Science Foundation. この資料で示される意見、所見、結論、推奨事項は、著者のものであり、必ずしも国立科学財団の見解を反映しているわけではない。 0.56
We thank Susan J. Brison, Chris Felton, Arvind Narayanan, Vivien Nguyen, and Dora Zhao for feedback. 我々は、Susan J. Brison氏、Chris Felton氏、Arvind Narayanan氏、Vivien Nguyen氏、Dora Zhao氏にフィードバックを感謝します。
訳抜け防止モード: 我々はSusan J. Brison、Chris Felton、Arvind Narayananに感謝します。 Vivien Nguyen氏とDora Zhao氏のフィードバック。
0.75
REFERENCES [1] Rachel Adams, Benjamin Reiss, and David Serlin. 参考 レイチェル・アダムズ、ベンジャミン・ライス、デイヴィッド・セリン。 0.46
2015. Keywords for Disability Studies. 2015. 障害研究のキーワード。 0.61
NYU Press (2015). 2015年(平成15年)。 0.32
15 15 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
[2] Alekh Agarwal, Alina Beygelzimer, Miroslav Dudík, John Langford, and Hanna Wallach. [2] alekh agarwal、alina beygelzimer、miroslav dudík、john langford、hanna wallach。 0.28
2018. A Reductions Approach to Fair Classification. 2018. 公平な分類への削減的アプローチ 0.59
International Conference on Machine Learning (ICML) (2018). 国際機械学習会議(ICML)に参加。 0.61
[3] Dennis J. Aigner and Glen G. Cain. [3] dennis j. aigner と glen g. cain である。 0.54
1977. Statistical Theories of Discrimination in Labor Markets. 1977. 労働市場における差別の統計理論 0.62
Industrial and Labor Relations Review 30, 2 (1977). 産業・労働関係レビュー30年2月2日(1977年)。 0.58
[4] Y. Gavriel Ansara. [4]y.gavriel ansara。 0.38
2012. Cisgenderism in medical settings: How collaborative partnerships can challenge structural violence. 2012. 医療環境におけるシスジェンダー主義: 協力的協力がいかに構造的暴力に挑戦するか。 0.47
Out of the ordinary: LGBT lives (2012), 102–122. 通常のもの LGBT(2012年)、102-122人。 0.51
[5] Kenneth Arrow. ケネス・アロウ(Kenneth Arrow)。 0.48
1951. Social Choice and Individual Values. 1951. 社会的選択と個人の価値観。 0.54
John Wiley & Sons (1951). ジョン・ワイリー&サンズ(1951年)。 0.54
[6] Sowmiya Ashok. [6]ソウミヤ・アショーク。 0.46
2016. The Rise of the American ’Others’. 2016. the rise of the american others” (英語) 0.54
The Atlantic (2016). 大西洋(2016年)。 0.37
[7] Doyin Atewologun. [7]ドイアン・アテウォログン。 0.47
2018. Intersectionality Theory and Practice. 2018. 交叉性理論と実践。 0.61
Oxford Research Encyclopedias (2018). オックスフォード・リサーチ百科事典(2018年)。 0.55
[8] Solon Barocas, Anhong Guo, Ece Kamar, Jacquelyn Krones, Meredith Ringel Morris, Jennifer Wortman Vaughan, W. Duncan Wadsworth, and Hanna Wallach. Solon Barocas氏、Anhong Guo氏、Ece Kamar氏、Jacquelyn Krones氏、Meredith Ringel Morris氏、Jennifer Wortman Vaughan氏、W. Duncan Wadsworth氏、Hanna Wallach氏。
訳抜け防止モード: [8 ]ソロン・バローカス、アンジョン・グオ、エース・カマール Jacquelyn Krones, Meredith Ringel Morris, Jennifer Wortman Vaughan, W. Duncan Wadsworth そしてハンナ・ワラッハ。
0.72
2021. Designing Disaggregated Evaluations of AI Systems: Choices, Considerations, and Tradeoffs. 2021. AIシステムの非集合的評価:選択、考察、トレードオフ。 0.51
AAAI/ACM Conference on AI, Ethics, and Society (AIES) (2021). AAAI/ACM Conference on AI, Ethics and Society (AIES) - 2021年。 0.35
[9] bell hooks. 1981. 9]ベルフック 1981. 0.38
Ain’t I a Woman? 私は女性ではないのか? 0.77
South End Press (1981). サウス・エンド・プレス(1981年)。 0.56
[10] Rachel K. E. Bellamy, Kuntal Dey, Michael Hend, Samuel C. Hoffman, Stephanie Houde, Kalapriya Kannan, Pranay Lohia, Jacquelyn Martino, Sameep Mehta, Aleksandra Mojsilovic, Seema Nagar, Karthikeyan Natesan Ramamurthy, John Richards, Diptikalyan Saha, Prasanna Sattigeri, Moninder Singh, Kush R. Varshney, and Yunfeng Zhang. Rachel K. E. Bellamy, Kuntal Dey, Michael Hend, Samuel C. Hoffman, Stephanie Houde, Kalapriya Kannan, Pranay Lohia, Jacquelyn Martino, Sameep Mehta, Aleksandra Mojsilovic, Seema Nagar, Karthikeyan Natesan Ramamurthy, John Richards, Diptikalyan Saha, Prasanna Sattigeri, Moninder Singh, Kush R. Varshney, Yunfeng Zhang
訳抜け防止モード: 10 ]レイチェル・k・e・ベラミー、クンタル・ディー、マイケル・ヘンド samuel c. hoffman, stephanie houde, kalapriya kannan, pranay lohia, jacquelyn martino. サメプ・メフタ、アレクサンドラ・モジシロフ、セマ・ナガー、カルティケヤン・ネイトサン・ラママーシー john richards, diptikalyan saha, prasanna sattigeri, moninder singh kush r. varshneyとyunfeng zhang。
0.57
2018. AI Fairness 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias. 2018. AI Fairness 360: 不要なアルゴリズムバイアスの検出、理解、緩和のための拡張可能なツールキット。 0.53
arXiv:1810.01943 (2018). arxiv:1810.01943 (2018)。 0.18
[11] Sebastian Benthall and Bruce D. Haynes. 11]セバスチャン・ベントホールとブルース・d・ヘインズ 0.58
2019. Racial categories in machine learning. 2019. 機械学習における人種分類。 0.56
Conference on Fairness, Accountability, and Transparency 公正・説明責任・透明性に関する会議 0.79
(FAccT) (2019). (FAccT) (2019)。 0.78
[12] Abeba Birhane. [12]アベバ・バーレーン。 0.55
2021. Algorithmic injustice: a relational ethics approach. 2021. アルゴリズム的不正:関係倫理的アプローチ。 0.57
Patterns 2 (2021). パターン2(2021年)。 0.69
Issue 2. [13] Geoffrey C. Bowker and Susan Leigh Star. 第2号。 13]ジェフリー・c・ボーカーとスーザン・リー・スター 0.58
2000. Sorting Things Out: Classification and Consequences. 2000. ソート: 分類と結果。 0.45
MIT Press (2000). MIT出版(2000年)。 0.65
[14] Greg Brockman, Vicki Cheung, Ludwig Pettersson, Jonas Schneider, John Schulman, Jie Tang, and Wojciech Zaremba. Greg Brockman, Vicki Cheung, Ludwig Pettersson, Jonas Schneider, John Schulman, Jie Tang, Wojciech Zaremba。
訳抜け防止モード: グレッグ・ブロックマン ヴィッキー・チュン ルートヴィヒ・ペターソン ジョナス・シュナイダー(jonas schneider)、ジョン・シュルマン(john schulman)、ジー・タング(jie tang)、ウォシチヒ・ザレンバ(wojciech zaremba)。
0.41
2016. OpenAI Gym. 2016. オープンアイジム。 0.48
arXiv:arXiv:1606.015 40 arXiv:arXiv:1606.015 40 0.29
[15] J. Scott Brown, Steven Hitlin, and Glen H. Elder Jr. 2007. J. Scott Brown, Steven Hitlin, and Glen H. Elder Jr. 2007 0.36
The importance of being “other”: A natural experiment about lived race over time. であることの重要性: 時間とともに生きたレースに関する自然な実験。 0.76
Social Science Research 36 (2007), 159–174. 社会 科学研究36号(2007年)、159-174号。 0.66
Issue 1. [16] Anna Carastathis. 1号。 アナ・カラスタティス(Anna Carastathis)。 0.56
2008. The invisibility of privilege: a critique of intersectional models of identity. 2008. 特権の不可視性:アイデンティティの交叉モデルに対する批判。 0.54
Les Ateliers de l’Ethique 3, 2 (2008), 23–38. Les Ateliers de l’Ethique 3, 2 (2008), 23–38。 0.42
[17] Allison J.B. Chaney, Brandon M. Stewart, and Barbara E. Engelhardt. 17]アリソン・j・b・チャニー、ブランドン・m・スチュワート、バーバラ・e・エンゲルハルト 0.43
2018. How Algorithmic Confounding in Recommendation Systems Increases 2018. レコメンデーションシステムにおけるアルゴリズム結合の増大 0.53
Homogeneity and Decreases Utility. 均一性と実用性の低下。 0.49
ACM Conference on Recommender Systems (RecSys) (2018). ACM Conference on Recommender Systems (RecSys) (2018) 0.37
[18] Nitesh V. Chawla, Kevin W. Bowyer, Lawrence O. Hall, and W. Philip Kegelmeyer. Nitesh V. Chawla, Kevin W. Bowyer, Lawrence O. Hall, W. Philip Kegelmeyer. 0.37
2011. SMOTE: Synthetic Minority Over-sampling Technique. 2011. SMOTE: 合成マイノリティオーバーサンプリング技術。 0.57
Journal Of Artificial Intelligence Research 16 (2011), 321–357. journal of artificial intelligence research 16 (2011年) 321-357頁。 0.81
[19] Mingliang Chen and Min Wu. [19]ミングリアン・チェンとミン・ウー。 0.52
2020. Towards Threshold Invariant Fair Classification. 2020. Threshold Invariant Fair Classification の略。 0.60
Conference on Uncertainty in Artificial Intelligence (UAI) 人工知能の不確実性に関する国際会議 0.68
(2020). [20] Silvia Chiappa and William S. Isaac. (2020). 20] シルビア・チアッパと ウィリアム・s・アイザック 0.51
2019. A Causal Bayesian Networks Viewpoint on Fairness. 2019. Causal Bayesian Networks Views on Fairness(英語) 0.57
IFIP Advances in Information and Communication 情報通信におけるIFIPの進歩 0.75
Technology book series (2019). テクノロジー・ブック・シリーズ(2019年)。 0.63
[21] Giovanni Luca Ciampaglia, Azadeh Nematzadeh, Filippo Menczer, and Alessandro Flammini. Azadeh Nematzadeh, Filippo Menczer, Alessandro Flammini.[21] Giovanni Luca Ciampaglia, Azadeh Nematzadeh, Filippo Menczer, Alessandro Flammini. 0.39
2018. How algorithmic popularity bias hinders or 2018. アルゴリズム的な人気バイアスが 0.50
promotes quality. Scientific Reports (2018). 質を高める。 科学誌(2018年)。 0.53
[22] Combahee River Collective. [22]コンバヒー川集合体。 0.71
1977. The Combahee River Collective Statement. 1977. コンバヒー川集合ステートメント(Combahee River Collective Statement)。 0.49
(1977). [23] Patricia Hill Collins. (1977). パトリシア・ヒル・コリンズ[23] 0.56
1990. Black Feminist Thought: Knowledge, Consciousness and the Politics of Empowerment. 1990. 黒人フェミニストの思想:知識、意識、エンパワーメントの政治。 0.53
Hyman (1990). ハイマン(1990年)。 0.63
[24] Patricia Hill Collins and Sirma Bilge. 24] パトリシア・ヒル・コリンズと サーマ・ビルジ 0.58
2020. Intersectionality. 2020. 交差性。 0.47
John Wiley & Sons (2020). John Wiley & Sons(2020年)。 0.44
[25] Kathleen Creel and Deborah Hellman. 25] キャスリーン・クリールと デボラ・ヘルマン 0.47
2021. The Algorithmic Leviathan: Arbitrariness, Fairness, and Opportunity in Algorithmic Decision Making 2021. アルゴリズムレバイアサン:アルゴリズム決定における任意性、公正性、機会性 0.58
Systems. Conference on Fairness, Accountability, and Transparency (FAccT) (2021). システム。 公正・説明責任・透明性に関する会議(FAccT)(2021年) 0.74
[26] Kimberle Crenshaw. キンバール・クレンショー(Kimberle Crenshaw) 0.35
1989. Demarginalizing the Intersection of Race and Sex: A Black Feminist Critique of Antidiscrimination Doctrine, Feminist 1989. 人種と性別の交点を解消する:黒人フェミニストの反差別主義批判、フェミニスト 0.52
Theory and Antiracist Politics. 政治理論と反人種差別論。 0.64
University of Chicago Legal Forum (1989). シカゴ大学法学部(1989年)。 0.60
Issue 1. [27] Alexander D’Amour, Hansa Srinivasan, James Atwood, Pallavi Baljekar, David Sculley, and Yoni Halpern. 1号。 Alexander D’Amour氏、Hansa Srinivasan氏、James Atwood氏、Pallavi Baljekar氏、David Sculley氏、Yoni Halpern氏。 0.43
2020. Fairness is not static: deeper 2020. 公平さは静的ではない:より深い 0.48
understanding of long term fairness via simulation studies. シミュレーション研究による 長期的な公正の理解 0.68
Conference on Fairness, Accountability, and Transparency (FAccT) (2020). 公正、説明責任、透明性に関する会議 (FAccT) (2020)。 0.75
[28] Carmen de Monteflores and Stephen J. Schultz. [28]Carmen de MontefloresとStephen J. Schultz。 0.41
1978. Coming Out: Similarities and Differences for Lesbians and Gay Men. 1978. 出世:レズビアンとゲイマンの類似点と相違点。 0.56
Journal of Social Issues (1978). 社会問題雑誌 (1978). 0.48
[29] Kylan Mattias de Vries. Kylan Mattias de Vries (英語) 0.45
2014. Transgender people of color at the center: Conceptualizing a new intersectional model. 2014. 中央のトランスジェンダーの人々: 新しい交差点モデルの概念化。 0.57
Ethnicities 15 (2014), 3–27. 人口15人(2014年)、3-27人。 0.41
[30] David L. Dickinson and Ronald L. Oaxaca. 30] デビッド・l・ディキンソンとロナルド・l・オアハカ 0.56
2009. Statistical Discrimination in Labor Markets: An Experimental Analysis. 2009. 労働市場における統計的差別 : 実験的分析 0.65
Southern Economic Journal Southern Economic Journal 0.42
26, 1 (2009). 26, 1 (2009). 0.42
[31] Frances Ding, Moritz Hardt, John Miller, and Ludwig Schmidt. 31]フランセス・ディン、モリッツ・ハード、ジョン・ミラー、ルートヴィヒ・シュミット。 0.61
2021. Retiring Adult: New Datasets for Fair Machine Learning. 2021. 引退: 公正な機械学習のための新しいデータセット。 0.55
Advances in Neural Information Processing Systems (NeurIPS) (2021). 神経の進歩 情報処理システム (NeurIPS) (2021年)。 0.65
[32] Dheeru Dua and Casey Graff. [32]Dheeru DuaとCasey Graff。 0.38
2017. UCI Machine Learning Repository. 2017. UCI 機械学習リポジトリ。 0.55
http://archive.ics.u ci.edu/ml [33] Cynthia Dwork, Moritz Hardt, Toniann Pitassi, Omer Reingold, and Richard Zemel. http://archive.ics.u ci.edu/ml [33] cynthia dwork, moritz hardt, toniann pitassi, omer reingold, richard zemel。 0.30
2012. Fairness through Awareness. 2012. 公正さを意識する。 0.46
Proceedings of the 3rd Innovations in Theoretical Computer Science Conference (2012). 第3回大会紀要 理論計算機科学会議(2012年)に参加。 0.63
[34] Cynthia Dwork, Nicole Immorlica, Adam Tauman Kalai, and Max Leiserson. 34] シンシア・ドワーク、ニコール・インモルリカ、アダム・タウマン・カライ、マックス・ライソン 0.47
2018. Decoupled classifiers for fair and efficient machine learning. 2018. 公平で効率的な機械学習のための分離された分類器。 0.46
Conference on Fairness, Accountability, and Transparency (FAccT) (2018). 公正、説明責任、透明性に関する会議 (FAccT) (2018)。 0.72
16 16 0.42
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[35] Christian Edlagan and Kavya Vaghul. 35] クリスチャン・エドラーガンと カヴヤ・ヴァグル 0.46
2016. How data disaggregation matters for Asian Americans and Pacific Islanders. 2016. アジア系アメリカ人と太平洋諸島人にとって、データの分散がいかに重要か。 0.45
Washington Center for ワシントン・センター 0.76
Equitable Growth (2016). 2016年(平成16年)。 0.33
[36] Paula England. ポーラ・イングランド(Paula England)。 0.61
1992. Comparable Worth: Theories and Evidence. 1992. 比較価値:理論と証拠。 0.56
Aldine De Gruyter (1992). Aldine De Gruyter(1992年) 0.74
[37] Li Fei-Fei, Rob Fergus, and Pietro Perona. [37]Li Fei-Fei、Rob Fergus、Pietro Perona。 0.37
2003. A Bayesian Approach to Unsupervised One-Shot Learning of Object Categories. 2003. 物体カテゴリの教師なしワンショット学習へのベイズ的アプローチ 0.57
International Conference on Computer Vision (ICCV) (2003). 国際 コンピュータビジョン会議(ICCV) (2003年)。 0.73
[38] Ronald A. Fisher. 38]ロナルド・a・フィッシャー 0.53
1925. Statistical methods for research workers. 1925. 研究員の統計方法。 0.37
Oliver & Boyd (1925). オリヴァー&ボイド(1925年)。 0.58
[39] James Foulds, Rashidul Islam, Kamrun Keya, and Shimei Pan. [39]ジェームズ・ファウルズ、ラシドゥル・イスラム、カムラン・キーナ、シメイ・パン。 0.51
2019. Bayesian Modeling of Intersectional Fairness: The Variance of Bias. 2019. 交叉フェアネスのベイズモデル:バイアスの分散 0.49
arXiv:1811.07255 (2019). arXiv:1811.07255 (2019)。 0.67
[40] James Foulds, Rashidul Islam, Kamrun Naher Keya, and Shimei Pan. 40]ジェームズ・ファウルズ、ラシドゥル・イスラム、カムラン・ナーヘル・キーナ、シメイ・パン。 0.40
2018. An Intersectional Definition of Fairness. 2018. フェアネスの相互定義。 0.49
arXiv:1807.08362 (2018). arXiv:1807.08362 (2018)。 0.69
[41] Carla Freeman. カルラ・フリーマン(Carla Freeman)。 0.54
2000. High Tech and High Heels in the Global Economy: Women, Work, and Pink-Collar Identities in the Caribbean. 2000. 世界経済におけるハイテクとハイヒール: カリブ海における女性、労働者、ピンクカラーのアイデンティティ。 0.58
Duke University Press (2000). 公爵 大学出版(2000年)。 0.50
[42] Sorelle A. Friedler, Carlos Scheidegger, Suresh Venkatasubramanian, Sonam Choudhary, Evan P. Hamilton, and Derek Roth. [42]Sorelle A. Friedler、Carlos Scheidegger、Suresh Venkatasubramanian、Sonam Choudhary、Evan P. Hamilton、Derek Roth。
訳抜け防止モード: [42 ] Sorelle A. Friedler, Carlos Scheidegger, Suresh Venkatasubramanian, Sonam Choudhary氏、Evan P. Hamilton氏、Derek Roth氏。
0.44
2019. A comparative study of fairness-enhancing interventions in machine learning. 2019. 比較 機械学習における公平度向上介入に関する研究 0.52
Conference on Fairness, Accountability, and Transparency (FAccT) (2019). 公正、説明責任、透明性に関する会議 (FAccT) (2019)。 0.74
[43] Hélène Frohard-Dourlent, Sarah Dobson, Beth A. Clark, Marion Doull, and Elizabeth M. Saewyc. Helène Frohard-Dourlent氏、Sarah Dobson氏、Beth A. Clark氏、Marion Doull氏、Elizabeth M. Saewyc氏。 0.34
2016. “I would have preferred more options”: 2016. 「もっと選択肢があったらよかったのに」 0.56
accounting for non-binary youth in health research. 健康研究における非バイナリー青年の会計 0.66
Nursing Inquiry (2016). 看護学(2016年)。 0.67
[44] Kiran Garimella, Aristides Gionis, Nikos Parotsidis, and Nikolaj Tatti. 44] Kiran Garimella, Aristides Gionis, Nikos Parotsidis, Nikolaj Tatti。 0.33
2017. Balancing information exposure in social networks. 2017. ソーシャルネットワークにおける情報公開のバランスをとる。 0.50
Advances in Neural Information Processing Systems (NeurIPS) (2017). 神経の進歩 情報処理システム (NeurIPS) (2017)。 0.64
[45] Daniel Geschke, Jan Lorenz, and Peter Holtz. Daniel Geschke氏、Jan Lorenz氏、Peter Holtz氏。 0.30
2018. The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for 2018. 三重フィルタバブル:エージェントベースモデリングを用いてメタ理論フレームワークをテストする 0.64
the emergence of filter bubbles and echo chambers. フィルターバブルとエコーチャンバーの出現です 0.54
British Journal of Social Psychology (2018). イギリスの社会心理学誌(2018年)。 0.75
[46] Avijit Ghosh, Lea Genuit, and Mary Reagan. Avijit Ghosh氏、Lea Genuit氏、Mary Reagan氏。 0.29
2021. Characterizing Intersectional Group Fairness with Worst-Case Comparisons. 2021. ワーストケース比較による区間群フェアネスの特性評価 0.51
Affinity Group アフィニティグループ 0.69
Workshop on Diversity in Artificial Intelligence: Diversity, Belonging, Equity, and Inclusion (AIDBEI) at AAAI 2021 (2021). AAAI 2021(2021年)におけるAIDBEI(Diversity in Artificial Intelligence: Diversity, Belonging, Equity and Inclusion)ワークショップ 0.75
[47] Gene V. Glass, Percy D. Peckham, and James R. Sanders. ジェネラル・V・グラス、パーシー・D・ペッカム、ジェームズ・R・サンダース。 0.55
1972. Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analysis 1972. 固定効果分析に基づく仮定を満たせなかった結果 0.54
of Variance and Covariance. 変数と共分散のことです。 0.49
Review of Educational Research 42 (1972). 専門は教育研究42(1972年)。 0.53
[48] Sharad Goel, Ashton Anderson, Jake Hofman, and Duncan J. Watts. Sharad Goel氏、Ashton Anderson氏、Jake Hofman氏、Duncan J. Watts氏。 0.68
2016. The Structural Virality of Online Diffusion. 2016. オンライン拡散の構造的ウイルス性 0.58
Management Science (2016). 経営学(2016年)。 0.60
[49] Jake Goldenfein. [49]ジェイク・ゴールデンファイン。 0.67
2019. The Profiling Potential of Computer Vision and the Challenge of Computational Empiricism. 2019. コンピュータビジョンのプロファイリングポテンシャルと計算経験主義の挑戦 0.49
Conference on Fairness, フェアネスに関する会議。 0.54
Accountability, and Transparency (FAccT) (2019). 説明責任と透明性 (FAccT) (2019)。 0.74
[50] Ben Green and Lily Hu. 50]ベン・グリーンとリリー・ヒュー 0.60
2018. The Myth in the Methodology: Towards a Recontextualization of Fairness in Machine Learning. 2018. 方法論の神話 : 機械学習におけるフェアネスの再定義に向けて 0.60
Machine Learning: The Debates workshop at the 35th International Conference on Machine Learning (2018). 機械学習: The Debates Workshop at the 35th International Conference on Machine Learning (2018) 0.60
[51] Ben Green and Salomé Viljoen. ベン・グリーンとSalomé Viljoen。 0.42
2020. Algorithmic Realism: Expanding the Boundaries of Algorithmic Thought. 2020. algorithmic realism: アルゴリズム的思考の境界を広げる。 0.62
Conference on Fairness, Accountability, 公正,責任,責任に関する会議 0.70
and Transparency (FAccT) (2020). および透明性 (FAccT) (2020)。 0.78
[52] Trina Grillo. トリナ・グリロ(Trina Grillo)。 0.50
1995. Anti-Essentialism and Intersectionality: Tools to Dismantle the Master’s House. 1995. 反本質主義と交差点性: 主人の家を解体するツール。 0.54
Berkeley Journal of Gender, Law & Justice 10 Berkeley Journal of Gender, Law & Justice 10(英語) 0.84
(1995). [53] Wei Guo and Aylin Caliskan. (1995). 53]Wei GuoとAylin Caliskan。 0.37
2021. Detecting Emergent Intersectional Biases: Contextualized Word Embeddings Contain a Distribution of 2021. 創発的節間バイアスの検出:分布を含む文脈的単語埋め込み 0.63
Human-like Biases. AAAI/ACM Conference on AI, Ethics, and Society (AIES) (2021). 人間のような偏見。 AAAI/ACM Conference on AI, Ethics and Society (AIES) - 2021年。 0.43
[54] Foad Hamidi, Morgan Klaus Scheuerman, and Stacy M. Branham. Foad Hamidi氏、Morgan Klaus Scheuerman氏、Stacy M. Branham氏。 0.32
2018. Gender Recognition or Gender Reductionism? 2018. ジェンダー認識かジェンダー還元主義か? 0.52
The Social Implications of Automatic Gender Recognition. 社会的意味合いは ジェンダーの自動認識。 0.73
ACM Conference on Human Factors in Computing Systems (CHI) (2018). ACM Conference on Human Factors in Computing Systems (CHI) (2018) に参加。 0.44
[55] Ange-Marie Hancock. [55]アンゲ・マリー・ハンコック 0.56
2007. When Multiplication Doesn’t Equal Quick Addition: Examining Intersectionality as a Research Paradigm. 2007. 乗算は素早い追加ではない: 研究パラダイムとしての交叉性を調べる。 0.50
Perspectives on Politics (2007). 展望 2007年(平成19年)。 0.55
[56] Alex Hanna, Emily Denton, Andrew Smart, and Jamila Smith-Loud. Alex Hanna氏、Emily Denton氏、Andrew Smart氏、Jamila Smith-Loud氏。 0.75
2020. Towards a Critical Race Methodology in Algorithmic Fairness. 2020. アルゴリズムフェアネスにおけるクリティカルレース方法論 0.55
ACM Conference on Fairness, Accountability, Transparency (FAccT) (2020). ACM 公正、説明責任、透明性に関する会議 (FAccT) (2020)。 0.81
[57] Moritz Hardt. 57] モーリッツ・ハード 0.53
2014. How big data is unfair. 2014. ビッグデータがいかに不公平か。 0.52
Medium (2014). ミディアム(2014年)。 0.58
[58] Moritz Hardt, Eric Price, and Nathan Srebro. [58]モリッツ・ハード、エリック・プライス、ネイサン・スレブロ 0.40
2016. Equality of Opportunity in Supervised Learning. 2016. 教師付き学習における機会の平等 0.55
arXiv:1610.02413 (2016). arxiv:1610.02413 (2016)。 0.43
[59] Ursula Hebert-Johnson, Michael Kim, Omer Reingold, and Guy Rothblum. 59]Ursula Hebert-Johnson、Michael Kim、Omer Reingold、Guy Rothblum。 0.36
2018. Multicalibration: Calibration for the (Computationally-Ide ntifiable) 2018. マルチキャリブレーション:(計算的に特定可能な)キャリブレーション 0.52
Masses. International Conference on Machine Learning (ICML) (2018). 大衆 国際機械学習会議(ICML)に参加。 0.43
[60] Gregory M. Herek. 60] グレゴリー・m・ヘレック 0.58
2002. Gender Gaps in Public Opinion about Lesbians and Gay Men. 2002. レズビアンとゲイマンに関する世論のジェンダーギャップ。 0.50
Public Opinion Quarterly (2002). 2002年(平成14年)公開。 0.57
[61] Charles Hirschman, Richard Alba, and Reynolds Farley. チャールズ・ヒルシュマン、リチャード・アルバ、レイノルズ・ファーリー。 0.51
2000. The Meaning and Measurement of Race in the U.S. Census: Glimpses into the Future. 2000. アメリカ合衆国国勢調査における人種の意味と測定:未来を垣間見る。 0.57
Demography 37, 3 (2000). デモグラフィー37, 3(2000年)。 0.62
[62] Paul W. Holland. 62]ポール・w・ホランド 0.57
2008. Causation and Race. 2008. 因果関係と人種。 0.47
White Logic, White Methods: Racism and Methodology (2008). white logic, white methods: racism and methodology (2008)を参照。 0.86
[63] Pierrette Hondagneu-Sotelo. [63]Pierrette Hondagneu-Sotelo 0.39
2007. Domestica: Immigrant Workers Cleaning and Caring in the Shadows of Affluence. 2007. Domestica: 移民労働者の清掃と難民の影の世話。 0.57
University of California Press カリフォルニア大学出版局 0.64
(2007). [64] Lily Hu and Issa Kohler-Hausmann. (2007). [64]lily huとissa kohler-hausmann。 0.39
2020. What’s Sex Got to Do With Fair Machine Learning? 2020. 公正な機械学習でセックスは何をするのか? 0.58
Conference on Fairness, Accountability, and Transparency (FAccT) (2020). 公正・説明責任会議 透明性 (FAccT) (2020)。 0.41
[65] Ben Hutchinson and Margaret Mitchell. ベン・ハッチンソンとマーガレット・ミッチェル。 0.33
2018. 50 Years of Test (Un)fairness: Lessons for Machine Learning. 2018. 50年間のテスト(un)フェアネス: マシンラーニングのためのレッスン。 0.61
CoRR abs/1811.10104 (2018). en:corr abs/1811.10104 (2018)。 0.39
arXiv:1811.10104 http://arxiv.org/abs /1811.10104 arXiv:1811.10104 http://arxiv.org/abs /1811.10104 0.15
[66] Sebastian Höfer, Kostas Bekris, Ankur Handa, Juan Camilo Gamboa, Florian Golemo, and Melissa Mozifian. セバスチャン・ヘーファー、コスタス・ベクリス、アンクル・ハンダ、フアン・カミロ・ガンボア、フローリアン・ゴレモ、メリッサ・モジフィアン
訳抜け防止モード: [66 ]Sebastian Höfer, Kostas Bekris, Ankur Handa, フアン・カミロ・ガンボア、フローリアン・ゴレモ、メリッサ・モジフィアン。
0.66
2020. 2nd Workshop on Closing the 2020. 第2回閉鎖に関するワークショップ 0.55
Reality Gap in Sim2Real Transfer for Robotics. Sim2Real Transfer for Roboticsにおける現実のギャップ 0.72
(2020). https://sim2real.git hub.io (2020). https://sim2real.git hub.io 0.31
17 17 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
[67] Abigail Z. Jacobs and Hanna Wallach. [67] アビゲイル・z・ジェイコブスと ハンナ・ワラッハ 0.58
2021. Measurement and Fairness. 2021. 測定と公平さ。 0.59
ACM Conference on Fairness, Accountability, Transparency (FAccT) (2021). ACM Conference on Fairness, Accountability, Transparency (FAccT) (2021年) 0.76
[68] Nathalie Japkowicz. ナサリー・ジャプコウィッツ(Nathalie Japkowicz) 0.37
2000. The Class Imbalance Problem: Significance and Strategies. 2000. クラス不均衡問題:重要度と戦略。 0.60
International Conference on Artificial Intelligence (IC-AI) 人工知能国際会議(IC-AI)に参加して 0.63
(2000). [69] Heinrich Jiang and Ofir Nachum. (2000). [69]ハインリヒ・ジャンとオフィア・ナチュム。 0.41
2020. Identifying and Correcting Label Bias in Machine Learning. 2020. 機械学習におけるラベルバイアスの同定と修正 0.58
Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS) (2020). 国際会議に参加して AI and Statistics (AISTATS) - AISTATS (2020)。 0.73
[70] Ray Jiang, Silvia Chiappa, Tor Lattimore, András György, and Pushmeet Kohli. [70]Ray Jiang, Silvia Chiappa, Tor Lattimore, András György, Pushmeet Kohli。 0.35
2019. Degenerate Feedback Loops in Recommender Systems. 2019. Recommenderシステムにおけるフィードバックループの退化 0.60
AAAI/ACM Conference on AI, Ethics, and Society (AIES) (2019). AAAI/ACM Conference on AI, Ethics, and Society (AIES) (2019)。 0.42
[71] Eun Seo Jo and Timnit Gebru. [71]ユン・ソ・ジョとティニット・ゲブル。 0.48
2020. Lessons from archives: strategies for collecting sociocultural data in machine learning. 2020. アーカイブからの教訓: 機械学習における社会文化的データ収集戦略。 0.62
Conference on Fairness, フェアネスに関する会議。 0.54
Accountability, and Transparency (FAccT) (2020). 説明責任と透明性 (FAccT) (2020)。 0.75
[72] Sasha Shen Johfre and Jeremy Freese. [72]Sasha Shen JohfreとJeremy Freese。 0.36
2021. Reconsidering the Reference Category. 2021. 参照カテゴリを再考する。 0.62
Sociological Methodology (2021). 社会学的方法論(2021年)。 0.30
[73] Faisal Kamiran, Asim Karim, and Xiangliang Zhang. [73]ファイサル・カミラン、アシム・カリム、Xiangliang Zhang。 0.50
2012. Decision Theory for Discrimination-Aware Classification. 2012. 識別・意識分類のための決定理論 0.54
IEEE 12th International 第12回IEEE国際会議報告 0.39
Conference on Data Mining (2012). データマイニングに関する会議(2012年)。 0.73
[74] Atoosa Kasirzadeh and Andrew Smart. [74]Atoosa Kasirzadeh氏とAndrew Smart氏。 0.45
2021. The Use and Misuse of Counterfactuals in Ethical Machine Learning. 2021. 倫理的機械学習における反事実の使用と誤用。 0.57
Conference on Fairness, フェアネスに関する会議。 0.54
Accountability, and Transparency (FAccT) (2021). 説明責任と透明性 (FAccT) (2021年)。 0.76
[75] Maximilian Kasy and Rediet Abebe. [75]マクシミリアン・ケイシーとアベベをリディート。 0.47
2021. Fairness, Equality, and Power in Algorithmic Decision-Making. 2021. アルゴリズム決定過程における公正性, 平等性, パワー 0.59
Conference on Fairness, Accountability, 公正,責任,責任に関する会議 0.70
and Transparency (FAccT) (2021). and Transparency (FAccT) (2021)。 0.40
[76] Michael Kearns, Seth Neel, Aaron Roth, and Zhiwei Steven Wu. Michael Kearns氏、Seth Neel氏、Aaron Roth氏、Zhiwei Steven Wu氏。 0.35
2018. An Empirical Study of Rich Subgroup Fairness for Machine Learning. 2018. 機械学習のためのリッチサブグループのフェアネスに関する実証的研究 0.53
arXiv:1808.08166 (2018). arXiv:1808.08166 (2018)。 0.68
[77] Michael Kearns, Seth Neel, Aaron Roth, and Zhiwei Steven Wu. [77]マイケル・カーンズ、セス・ニール、アーロン・ロス、ジヴァイ・スティーヴン・ウー 0.38
2018. Preventing Fairness Gerrymandering: Auditing and Learning for Subgroup 2018. フェアネスの防止 gerrymandering: サブグループの監査と学習 0.57
Fairness. International Conference on Machine Learning (ICML) (2018). フェアネス 国際機械学習会議(ICML)に参加。 0.47
[78] M. G. Kendall. [78]m.g.ケンドール 0.67
1938. A New Measure of Rank Correlation. 1938. ランク相関の新しい尺度。 0.49
Biometrika 30 (1938). バイオメトリカ30(1938年)。 0.55
[79] Michael P. Kim, Amirata Ghorbani, and James Zou. マイケル・P・キム(Michael P. Kim)、アミラタ・ゴルバニ(Amirata Ghorbani)、ジェームズ・ゾー(James Zou)。 0.46
2019. Multiaccuracy: Black-Box Post-Processing for Fairness in Classification. 2019. マルチ精度: 分類における公平性のためのブラックボックスポストプロセッシング。 0.52
AAAI/ACM Conference on AI, Ethics, and Society (AIES) (2019). AAAI/ACM AI, Ethics, and Society (AIES) (2019) に参加。 0.64
[80] Deborah K. King. デボラ・キング(Deborah K. King)。 0.51
1988. Multiple Jeopardy, Multiple Consciousness: The Context of a Black Feminist Ideology. 1988. 複数のジッパーディ、複数の意識:黒人フェミニストのイデオロギーの文脈。 0.46
Signs 14 (1988). 第14話(1988年)。 0.48
[81] Hannah Kirk, Yennie Jun, Haider Iqba, Elias Benussi, Filippo Volpin, Frederic A. Dreyer, Aleksandar Shtedritski, and Yuki M. Asano. 81]Hannah Kirk, Yennie Jun, Haider Iqba, Elias Benussi, Filippo Volpin, Frederic A. Dreyer, Aleksandar Shtedritski,yuki M. Asano
訳抜け防止モード: [81 ]ハンナ・カーク、Yennie Jun、Haider Iqba、 Elias Benussi, Filippo Volpin, Frederic A. Dreyer, Aleksandar Shtedritski 浅野由紀(あさのゆき)
0.75
2021. How 2021. どうして 0.42
True is GPT-2? gpt-2は本当か? 0.49
An Empirical Analysis of Intersectional Occupational Biases. 間欠的職業的ビアーゼの実証解析 0.56
arXiv: 2102.04130 (2021). arXiv: 2102.04130 (2021)。 0.44
[82] Jens Kober, J. Andrew Bagnell, and Jan Peters. 82]ジェンズ・コーバー、j・アンドリュー・バグネル、ジャン・ピーターズ 0.48
2013. Reinforcement Learning in Robotics: A Survey. 2013. ロボット工学における強化学習:調査 0.58
The International Journal of Robotics Research ロボット研究の国際ジャーナル 0.64
(2013). [83] Issa Kohler-Hausmann. (2013). 83] Issa Kohler-Hausmann。 0.43
2019. Eddie Murphy and the Dangers of Counterfactual Causal Thinking About Detecting Racial Discrimination. 2019. Eddie Murphy and the Dangers of Counterfactal Causal Thinking About Detecting Racial Discrimination (英語) 0.43
Northwestern University Law Review (2019). ノースウェスタン大学法学博士(2019年)。 0.67
[84] Miroslav Kubat and Stan Matwin. 84] ミルスラヴ・クバットと スタン・マトウィン 0.39
1997. Addressing the Curse of Imbalanced Training Sets: One-Sided Selection. 1997. 不均衡なトレーニングセットの呪い:片側選択。 0.54
International Conference on Machine Learning (ICML) (1997). 国際会議 機械学習 (ICML) (1997年)。 0.67
[85] Agostina J. Larrazabal, Nicolás Nieto, Victoria Peterson, Diego H. Milone, and Enzo Ferrante. Agostina J. Larrazabal氏、Nicolás Nieto氏、Victoria Peterson氏、Diego H. Milone氏、Enzo Ferrante氏。 0.67
2020. Gender imbalance in medical imaging datasets 2020. 医療画像データセットにおける男女不均衡 0.54
produces biased classifiers for computer-aided diagnosis. コンピュータ支援診断のためのバイアス付き分類器を生成する。 0.50
Proceedings of the National Academy of Sciences (PNAS) (2020). The National Academy of Sciences (PNAS) (2020年)の略。 0.74
[86] Jiuyong Li, Jixue Liu, Lin Liu, Thuc Duy Le, Saisai Ma, and Yizhao Han. [86]ジュヨン・リ、ジクス・リウ、リン・リウ、トゥック・デュイ・ル、サイサイ・マ、イズハオ・ハン 0.43
2017. Discrimination detection by causal effect estimation. 2017. 因果効果推定による識別検出 0.56
IEEE International ieeeインターナショナル 0.59
Conference on Big Data (Big Data) (2017). ビッグデータ(ビッグデータ)に関するカンファレンス(2017年)。 0.80
[87] Carolyn A. Liebler and Andrew Halpern-Manners. キャロリン・A・リーブラーとアンドリュー・ハルパーン=マナーズ。 0.43
2008. A practical approach to using multiple-race response data: a bridging method for public-use 2008. マルチトレース応答データへの実践的アプローチ--公共利用のためのブリッジング手法 0.60
microdata. Demography (2008). マイクロデータ。 2008年(平成20年)。 0.50
[88] Lisa M. Lix, Joanne C. Keselman, and H. J. Keselman. [88]lisa m. lix、joanne c. keselman、h. j. keselman。 0.36
1996. Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives 1996. 推計違反の事例再考:代替案の定量的検討 0.53
to the One-Way Analysis of Variance "F" Test. 変量「F」テストのワンウェイ解析へ 0.65
Review of Educational Research 66 (1996). 教育研究66号(1996年)を参照。 0.73
[89] Eli Lucherini, Matthew Sun, Amy Winecoff, and Arvind Narayanan. [89]エリ・ルチェリーニ、マシュー・サン、エイミー・ワインコフ、アーヴィンド・ナラヤナン。 0.44
2021. T-RECS: A Simulation Tool to Study the Societal Impact of Recommender 2021. T-RECS:レコメンダの社会的影響を研究するためのシミュレーションツール 0.56
Systems. arXiv:2107.08959 (2021). システム。 arXiv:2107.08959 (2021)。 0.55
[90] LL.M Timo Makkonen. [90]LL.M ティモ・マッコネン。 0.64
2002. Multiple, Compound and Intersectional Discrimination: Bringing the Experiences of the Most Marginalized to the 2002. 多元的、複合的、交叉的差別:最も辺縁化された人々の経験をもたらす 0.55
Fore. Institute For Human Rights, Åbo Akademi University (2002). です。 オーボ・アカデミ大学人権研究所(2002年)。 0.49
[91] Jeremie Mary, Clément Calauzènes, and Noureddine El Karoui. ジェレミー・メアリー、クレマン・カローゼネス、ヌーレディン・エル・カルーイ 0.37
2019. Fairness-Aware Learning for Continuous Attributes and Treatments. 2019. 継続的属性と治療のための公正な学習 0.55
International Conference on Machine Learning (ICML) (2019). 国際機械学習会議(ICML)に参加。 0.55
[92] Leslie McCall. リスリー・マコール(Leslie McCall)。 0.50
2005. The Complexity of Intersectionality. 2005. 交叉性の複雑さです 0.56
The University of Chicago Press 30, 3 (2005). 2005年 - シカゴ大学出版部30号(2005年)。 0.66
[93] Kevin A. McLemore. ケビン・A・マクルモア(Kevin A. McLemore) 0.50
2015. Experiences with Misgendering: Identity Misclassification of Transgender Spectrum Individuals. 2015. ミスジェンダーの経験:トランスジェンダースペクトル個体の識別ミス分類 0.61
Self and Identity (2015). 自己とアイデンティティ(2015年)。 0.62
Issue 1. [94] John Stuart Mills. 1号。 ジョン・スチュアート・ミルズ(John Stuart Mills) 0.56
1863. Utilitarianism. 1863. 実用主義。 0.52
Fraser’s Magazine (1863). フレイザーズ・マガジン(1863年)。 0.40
[95] Shira Mitchell, Eric Potash, Solon Barocas, Alexander D’Amour, and Kristian Lum. 95] Shira Mitchell, Eric Potash, Solon Barocas, Alexander D’Amour, Kristian Lum。 0.36
2021. Prediction-Based Decisions and Fairness: A Catalogue of 2021. 予測に基づく意思決定と公平性:カタログ 0.61
Choices, Assumptions, and Definitions. Annual Review of Statistics and Its Application (2021). 選択、仮定、定義。 統計学と応用の年次展望(2021年) 0.48
[96] Giulio Morina, Viktoriia Oliinyk, Julian Waton, Ines Marusic, and Konstantinos Georgatzis. 96] ギリオ・モリナ、ヴィクトリア・オリイニク、ジュリアン・ワトン、イネス・マルシック、コンスタンティノス・ゲオルギナツィス 0.50
2019. Auditing and Achieving Intersectional Fairness 2019. 間欠的公平さの監査と達成 0.49
in Classification Problems. arXiv:1911.01468 (2019). 分類の問題です arXiv:1911.01468 (2019)。 0.65
[97] Hervé Moulin. ハーヴェ・ムーリン (Hervé Moulin)。 0.43
2004. Fair Division and Collective Welfare. 2004. 公正な部門と集団福祉。 0.55
MIT Press (2004). MIT出版(2004年)。 0.68
[98] Jennifer C. Nash. ジェニファー・C・ナッシュ(Jennifer C. Nash) 0.52
2008. Re-Thinking Intersectionality. 2008. 交叉を交互に行う。 0.36
Feminist Review (2008). フェミニスト・レビュー(2008年)。 0.63
18 18 0.43
英語(論文から抽出)日本語訳スコア
Towards Intersectionality in Machine Learning 機械学習の共通性に向けて 0.57
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[99] Asian Pacific Institute on Gender-Based Violence. [99]アジア太平洋ジェンダー系暴力研究所 0.74
[n. d.]. Census Data & API Identities. [n.d.] 国勢調査データとapiid。 0.44
([n. d.]). [100] Tawana Petty. (n.d.)。 100] タワナ・ペティ。 0.51
2020. Safe or Just Surveilled? 2020. 安全か単なる監視か? 0.51
: Tawana Petty on the Fight Against Facial Recognition Surveillance. タワナ・ペティ : 顔認識監視との闘いについて 0.51
Logic (2020). 論理(2020年)。 0.41
[101] Geoff Pleiss, Manish Raghavan, Felix Wu, Jon Kleinberg, and Kilian Q. Weinberger. Geoff Pleiss氏、Manish Raghavan氏、Felix Wu氏、Jon Kleinberg氏、Kilian Q. Weinberger氏。 0.35
2017. On Fairness and Calibration. 2017. 公平さと校正についてです 0.40
Advances in Neural Information Processing Systems (NeurIPS) (2017). 神経の進歩 情報処理システム (NeurIPS) (2017)。 0.64
[102] Vikram V. Ramaswamy, Sunnie S. Y. Kim, and Olga Russakovsky. 102] Vikram V. Ramaswamy, Sunnie S. Y. Kim, Olga Russakovsky。 0.41
2021. Fair Attribute Classification through Latent Space De-biasing. 2021. 潜在空間デバイアスによる公正属性分類。 0.55
Conference on Computer Vision and Pattern Recognition (CVPR) (2021). 講演会 コンピュータビジョンとパターン認識(cvpr)について(2021年) 0.65
[103] John Rawls. ジョン・ロールズ[103]。 0.55
1974. Some Reasons for the Maximin Criterion. 1974. Maximin Criterionの略。 0.43
The American Economic Review (1974). The American Economic Review(1974年)。 0.79
[104] Mengye Ren, Wenyuan Zeng, Bin Yang, and Raquel Urtasun. 104]メンジー・レン、ウェンユ・ゼン、ビン・ヤン、ラケル・ウルタサン 0.44
2018. Learning to Reweight Examples for Robust Deep Learning. 2018. 頑健なディープラーニングのためのリウェイトな例を学ぶ。 0.48
International Conference on Machine Learning (ICML) (2018). 国際 機械学習(icml)に関する会議(2018年)。 0.71
[105] Prasanna Sattigeri, Samuel C. Hoffman, Vijil Chenthamarakshan, and Kush R. Varshney. 105] Prasanna Sattigeri, Samuel C. Hoffman, Vijil Chenthamarakshan, Kush R. Varshney。 0.39
2019. Fairness GAN. 2019. フェアネスGAN。 0.54
IBM Journal of Research and IBM Journal of Research and 0.42
Development (2019). 開発(2019年)。 0.84
[106] Thomas C. Schelling. 106] トーマス・c・シェリング 0.54
1971. Dynamic models of segregation. 1971. 分離の動的モデル。 0.51
The Journal of Mathematical Sociology (1971). The Journal of Mathematical Sociology(1971年) 0.74
[107] Morgan Klaus Scheuerman, Jialun Aaron Jiang, Katta Spiel, and Jed R. Brubaker. 107] Morgan Klaus Scheuerman, Jialun Aaron Jiang, Katta Spiel, Jed R. Brubaker. 0.39
2021. Revisiting Gendered Web Forms: An Evaluation of Gender 2021. ジェンダーWebフォームの再考:ジェンダーの評価 0.52
Inputs with (Non-)Binary People. 入力は(非)バイナリの人々です。 0.65
ACM Conference on Human Factors in Computing Systems (CHI) (2021). ACM Conference on Human Factors in Computing Systems (CHI) (2021年) 0.76
[108] Morgan Klaus Scheuerman, Jacob M Paul, and Jed R. Brubaker. 108] Morgan Klaus Scheuerman氏、Jacob M Paul氏、Jed R. Brubaker氏。 0.42
2019. How Computers See Gender: An Evaluation of Gender Classification in 2019. コンピュータがジェンダーをどう見るか--性別分類の評価 0.59
Commercial Facial Analysis Services. 商業的顔分析サービス。 0.73
ACM Conference On Computer-Supported Cooperative Work And Social Computing (CSCW) (2019). ACM Conference on Computer-Supported Cooperative Work and Social Computing (CSCW) (2019) 0.42
[109] Andrew D. Selbst, danah boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, and Janet Vertesi. 109]Andrew D. Selbst, Danah Boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, Janet Vertesi。 0.37
2019. Fairness and Abstraction in Sociotechnical 2019. 社会学における公平性と抽象化 0.41
Systems. Conference on Fairness, Accountability, and Transparency (FAccT) (2019). システム。 公正、説明責任、透明性に関する会議 (FAccT) (2019)。 0.76
[110] Maya Sen and Omar Wasow. 110] マヤ・センとオマール・ワソウ。 0.53
2016. Race as a Bundle of Sticks: Designs that Estimate Effects of Seemingly Immutable Characteristics. 2016. 棒の束としてのレース: 目に見える不変特性の影響を推定する設計。 0.56
Annual Review of Political Science (2016). 年 専門は政治学(2016年)。 0.63
[111] Viktoriia Sharmanska, Lisa Anne Hendricks, Trevor Darrell, and Novi Quadrianto. 111] Viktoriia Sharmanska, Lisa Anne Hendricks, Trevor Darrell, Novi Quadrianto。 0.35
2020. Contrastive Examples for Addressing the Tyranny of the 2020. 暴行に対処するための対照的な例 0.54
Majority. arXiv:2004.06524 (2020). 多数。 arXiv:2004.06524 (2020)。 0.59
[112] Stephanie A. Shields. 112]ステファニーA.シールド。 0.63
2008. Gender: An Intersectionality Perspective. 2008. 性: 交叉性の視点。 0.56
Sex Roles 59 (2008), 301–311. 性役割59(2008年)、301-311。 0.34
[113] Evelyn M. Simien. 113] イヴリン・m・シミエン 0.48
2007. Doing Intersectionality Research: From Conceptual Issues to Practical Examples. 2007. 間欠研究: 概念的問題から実践的事例まで。 0.56
Politics and Gender (2007). 政治とジェンダー』(2007年)。 0.76
[114] Ashudeep Singh and Thorsten Joachims. 【114年】アシュディープ・シンとソーステン・ヨアヒムス。 0.40
2018. Fairness of Exposure in Rankings. 2018. ランキングにおける露出の公平さ。 0.50
SIGKDD Conference on Knowledge Discovery and Data Mining SIGKDD Conference on Knowledge Discovery and Data Mining 0.42
(2018). [115] Elizabeth Spelman. (2018). エリザベス・スペルマン(Elizabeth Spelman)。 0.50
1988. Inessential Woman: Problems of Exclusion in Feminist Thought. 1988. 女性:フェミニスト思想における排除の問題。 0.54
Beacon Press (1988). ビーコン・プレス(1988年)。 0.59
[116] Luke Stark. [116] ルーク・スターク 0.57
2019. Facial Recognition is the Plutonium of AI. 2019. 顔認識はAIのプルトニウムである。 0.57
XRDS: Crossroads (2019). XRDS: クロスロード(2019年)。 0.72
[117] Ryan Steed and Aylin Caliskan. 117] Ryan Steed と Aylin Caliskan 0.59
2021. Image Representations Learned With Unsupervised Pre-Training Contain Human-like Biases. 2021. 教師なし事前学習による画像表現 0.41
Conference on Fairness, Accountability, and Transparency (FAccT) (2021). 講演会 公正、説明責任、透明性(FAccT) (2021年)。 0.61
[118] Yi Chern Tan and L. Elisa Celis. [118]Yi Chern TanとL. Elisa Celis。 0.40
2019. Assessing Social and Intersectional Biases in Contextualized Word Representations. 2019. 文脈化単語表現における社会バイアスと交叉バイアスの評価 0.50
Advances in Neural Information Processing Systems (NeurIPS) (2019). 神経の進歩 情報処理システム (NeurIPS) (2019)。 0.65
[119] Petter Törnberg. ペッター・テルンベルク(Petter Törnberg)。 0.54
2018. Echo chambers and viral misinformation: Modeling fake news as complex contagion. 2018. エコーチャンバーとウイルスの誤報:偽ニュースを複雑な感染としてモデル化する。 0.51
PLOS ONE (2018). PLOS ONE (2018)。 0.82
[120] Meredith Whittaker, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Liz Kaziunas, Mara Mills, Meredith Ringel Morris, Joy Rankin, Emily Rogers, [120]Meredith Whittaker, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Liz Kaziunas, Mara Mills, Meredith Ringel Morris, Joy Rankin, Emily Rogers,
訳抜け防止モード: He 120 ] Meredith Whittaker, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Liz Kaziunas, Mara Mills, Meredith Ringel Morris ジョー・ランキン(Joy Rankin)、エミリー・ロジャース(Emily Rogers)。
0.82
Marcel Salas, and Sarah Myers West. マルセル・サラスとサラ・マイヤーズ・ウェスト 0.58
2019. Disability, Bias, and AI. 2019. 障害、バイアス、AI。 0.45
AI Now (2019). AI Now (2019)。 0.78
[121] Forest Yang, Moustapha Cisse, and Sanmi Koyejo. [121]フォレスト・ヤン、ムスタファ・チッセ、サンミ・コエホ。 0.40
2020. Fairness with Overlapping Groups. 2020. 重複するグループとの公平さ。 0.46
Advances in Neural Information Processing Systems 神経情報処理システムの進歩 0.72
(NeurIPS) (2020). [122] Seyma Yucer, Samet Akçay, Noura Al-Moubayed, and Toby P. Breckon. (2020年) 122] Seyma Yucer, Samet Akçay, Noura Al-Moubayed, Toby P. Breckon. 0.40
2020. Exploring Racial Bias within Face Recognition via per-subject 2020. 物体ごとの顔認識における顔面バイアスの探索 0.51
Adversarially-Enable d Data Augmentation. 逆行可能なデータ拡張。 0.48
Fair, Data Efficient, and Trusted Computer Vision Workshop at CVPR (2020). Fair, Data Efficient, and Trusted Computer Vision Workshop at CVPR (2020)。 0.39
[123] Meike Zehlike, Ke Yang, and Julia Stoyanovich. 123] Meike Zehlike, Ke Yang, Julia Stoyanovich。 0.31
2021. Fairness in Ranking: A Survey. 2021. Fairness in Ranking: A Survey (英語) 0.56
arXiv: 2103.14000 (2021). arXiv: 2103.14000 (2021)。 0.44
[124] Ángel Alexander Cabrera, Will Epperson, Fred Hohman, Minsuk Kahng, Jamie Morgenstern, and Duen Horng Chau. 124] アンヘル・アレクサンダー・カブレラ、ウィル・エップパーソン、フレッド・ホーマン、ミンスク・カーン、ジェイミー・モーゲンスターン、デュエン・ホルン・チャウ。
訳抜け防止モード: 124 ] アンヘル・アレクサンダー・カブレラ, Will Epperson, Fred Hohman Minsuk Kahng、Jamie Morgenstern、Duen Horng Chau。
0.68
2019. FairVis: Visual Analytics 2019. FairVis: Visual Analytics 0.43
for Discovering Intersectional Bias in Machine Learning. 機械学習で交叉バイアスを発見するためです 0.73
IEEE Conference on Visual Analytics Science and Technology (VAST) (2019). IEEE Conference on Visual Analytics Science and Technology (VAST) (2019) に参加。 0.44
A ALGORITHMS AND HYPERPARAMETERS We describe additional details about the five algorithms we perform experiments on. A ALGORITHMS and HYPERPARAMETERS 実験を行う5つのアルゴリズムの詳細について述べる。 0.77
For thee algorithms that we are able to do so, we use our baseline 3 layer neural network as the model architecture. それを実現するためのアルゴリズムとしては、モデルアーキテクチャとしてベースラインの3層ニューラルネットワークを使用します。 0.77
RWT [69]: reweighting scheme on the training samples that learns group-specific weights between each group’s positive and negative instances. RWT [69]: 各グループの正と負のインスタンス間のグループ固有の重みを学習するトレーニングサンプルの再重み付け手法。 0.84
The algorithm lowers the weight on positive examples of a group if its TPR is higher than the overall rate, and increases the weight on the positive examples otherwise. このアルゴリズムは、tprが全体のレートよりも高い場合、グループの正の例の重みを下げ、そうでない場合は正の例の重みを増加させる。 0.62
In the original algorithm this is an iterative process whereby the entire classifier is retrained with each new set of weights. 元のアルゴリズムでは、これは全ての分類器が新しい重みの組で再訓練される反復プロセスである。 0.80
In extending this method to a neural network, we continue training the model at each iteration without retraining the whole model from scratch. この手法をニューラルネットワークに拡張する際、スクラッチからモデル全体をトレーニングすることなく、各イテレーションでモデルをトレーニングし続けます。 0.77
19 19 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Angelina Wang, Vikram V. Ramaswamy, and Olga Russakovsky アンジェリーナ・ワン、ヴィクラム対ラマスワミー、オルガ・ルサコフスキー 0.46
RDC [2]: reduces optimizing for both accuracy and a fairness constraint to a sequence of cost-sensitive classifications, which can be solved to yield a randomized classifier. rdc [2]: コストに敏感な分類のシーケンスに対して、精度と公平性の制約の両方に対する最適化を削減し、ランダム化分類子を生成するために解くことができる。 0.71
We adapted this to yield continuous outputs, by using the probabilities output by each classifier in the ensemble. これを,アンサンブル内の各分類器が出力する確率を用いて,連続出力を生成するように適応した。 0.70
LOS [40]: weighted addition to loss of an extra intersectional fairness regularizing term that minimizes the maximum log ratio between the rate of positive classification of all groups. LOS[40]: 全群の正の分類率の間の最大ログ比を最小化する余分な交叉フェアネス正規化項の損失に対する重み付き加算。 0.82
In order to modify this for our fairness criterion, we minimize the maximum ratio between the TPR of all groups. これを公平性の基準に修正するために、すべてのグループのtprの最大比率を最小にする。 0.69
GRP [121]: GroupFair is probabilistic combinations of logistic regression models that ensure fairness for overlapping groups. grp [121]: groupfair は重複群に対する公平性を保証するロジスティック回帰モデルの確率的組み合わせである。 0.81
This method contains two variations, weighted ERM and plugin, and we only use the latter due to the prohibitively long computational time required for the former. 本手法は、重み付きEMMとプラグインの2つのバリエーションを含み、後者は前者に必要な計算時間が非常に長いためのみ使用する。 0.70
We combine the model’s continuous outputs rather than discrete ones. モデルの連続的なアウトプットを離散的なアウトプットではなく組み合わせます。 0.61
GRY [76, 77]: cost-sensitive classifications to obtain solutions to a 2-player zero-sum game between a learner (which learns the classifier) and an auditor (which ensures that the fairness criterion is met). GRY[76,77]:学習者(分類器を学習する者)と監査者(フェアネス基準を満たすことを保証する者)との間の2プレーヤゼロサムゲームの解を得るためのコスト感受性分類。 0.71
The method produces a sequence of classifiers, all of which output hard outputs, and we use the average of these outputs. 本手法は, ハード出力を出力する分類器のシーケンスを生成し, それらの出力の平均値を使用する。 0.83
We use linear regression for the individual models. 個々のモデルに対して線形回帰を用いる。 0.78
Hyperparameters are all tuned on the validation set. ハイパーパラメータはすべて検証セットに調整される。 0.80
The first split is 70-30 for training/validation and the test set. 最初の分割は、トレーニング/検証とテストセットのための70-30である。 0.60
The training/validation is further split at 70-30 again to make the training and validation sets. トレーニング/バリデーションはさらに70〜30で分割され、トレーニングと検証セットが作成される。 0.61
Baseline: batch size: 64, and hyperparameter tuning across epochs: [50, 100, 150] × learning rate: [.001, .005] RWT [69]: batch size: 64, learning rate: .001, hyperparameter tuning across epochs: [100, 150] × reweight learning rate (algorithm-specific hyperparameter): [.1, .2, .5, 1.] RDC [2]: hyperparameter tuning across batch size: [256, 512, 1024, 2048] × epochs: [50, 100, 200]× number of iterations:[10, 20, 50] LOS [40]: batch size: 1024, learning rate: .005, hyperparameter tuning across epochs: [200, 250, 300] × 𝜆 weight on additional loss: [.01, .5, .1] Baseline: batch size: 64, and hyperparameter tuning across epochs: [50, 100, 150] × learning rate: [.001, .005] RWT [69]: batch size: 64, learning rate: .001, hyperparameter tuning across epochs: [100, 150] × reweight learning rate (algorithm-specific hyperparameter): [.1, .2, .5, 1.] RDC [2]: hyperparameter tuning across batch size: [256, 512, 1024, 2048] × epochs: [50, 100, 200]× number of iterations:[10, 20, 50] LOS [40]: batch size: 1024, learning rate: .005, hyperparameter tuning across epochs: [200, 250, 300] × 𝜆 weight on additional loss: [.01, .5, .1]
訳抜け防止モード: ベースライン : バッチサイズ : 64, およびエポック間のハイパーパラメータチューニング : [ 50, 100, 150 ] × 学習率 : [ .001, .005 ] RWT [ 69 ] : バッチサイズ : 64, 学習率 : .001, エピック間のハイパーパラメータチューニング : [100, 150 ] × リウェイト学習率(アルゴリズム - 特定のハイパーパラメータ) : [ .1, .2, .5, 1 ] RDC [ 2 ] : バッチサイズを越えたハイパーパラメータチューニング [256, 1 ] 512, 1024, 2048 ] × epochs : [ 50, 100, 200]× イテレーション数:[10, 20, 50 ] LOS [ 40 ] : バッチサイズ: 1024, 学習率:005、エポック横断のハイパーパラメータチューニング [200,] 250 , 300 ] × λ の余剰量 : [ .01 , .5 , .1 ]
0.77
GRP [121]: epochs: 10000, learning rate: .01, B: 50, hyperparameter tuning across 𝜈: [0.001, 0.003, 0.01, 0.03, 0.1] GRY [76, 77]: hyperparameter tuning across C:[5, 10, 20] × number of iterations: [50, 100, 200]× fairness parameter 𝛾:[1e-3, 5e-3, 1e-2] GRP [121]: epochs: 10000, learning rate: .01, B: 50, hyperparameter tuning across ν: [0.001, 0.003, 0.01, 0.03, 0.1] GRY [76, 77]: hyperparameter tuning across C:[5, 10, 20] × number of iterations: [50, 100, 200]× fairness parameter γ:[1e-3, 5e-3, 1e-2]
訳抜け防止モード: grp[121 ] : epochs : 100,000, learning rate : .01 b : 50 ν の超パラメータチューニング [0.0001] 0.003, 0.01, 0.03, 0.1 ] GRY [ 76, 77 ] : c:[5, 10, 20 ] × イテレーション数におけるハイパーパラメータチューニング : [50, 100] 200]×フェアネスパラメータ γ:[1e-3 , 5e-3 , 1e-2 ]
0.82
20 20 0.43
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。