論文の概要: Avoiding bias when inferring race using name-based approaches
- arxiv url: http://arxiv.org/abs/2104.12553v3
- Date: Tue, 12 Oct 2021 15:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 20:55:11.919153
- Title: Avoiding bias when inferring race using name-based approaches
- Title(参考訳): 名前に基づくアプローチによる人種推定時のバイアス回避
- Authors: Diego Kozlowski, Dakota S. Murray, Alexis Bell, Will Hulsey, Vincent
Larivi\`ere, Thema Monroe-White and Cassidy R. Sugimoto
- Abstract要約: 我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
- 参考スコア(独自算出の注目度): 0.8543368663496084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Racial disparity in academia is a widely acknowledged problem. The
quantitative understanding of racial based systemic inequalities is an
important step towards a more equitable research system. However, because of
the lack of robust information on authors' race, few large scale analyses have
been performed on this topic. Algorithmic approaches offer one solution, using
known information about authors, such as their names, to infer their perceived
race. As with any other algorithm, the process of racial inference can generate
biases if it is not carefully considered. The goal of this article is to assess
the extent to which algorithmic bias is introduced using different approaches
for name based racial inference. We use information from the U.S. Census and
mortgage applications to infer the race of U.S. affiliated authors in the Web
of Science. We estimate the effects of using given and family names, thresholds
or continuous distributions, and imputation. Our results demonstrate that the
validity of name based inference varies by race/ethnicity and that threshold
approaches underestimate Black authors and overestimate White authors. We
conclude with recommendations to avoid potential biases. This article lays the
foundation for more systematic and less biased investigations into racial
disparities in science.
- Abstract(参考訳): アカデミアにおける人種格差は広く認識されている問題である。
人種に基づく体系的不平等の定量的理解は、より公平な研究システムに向けた重要なステップである。
しかし、著者の人種に関する堅牢な情報がないため、この話題に関する大規模な分析はほとんど行われていない。
アルゴリズムアプローチは、著者の名前などの既知の情報を使用して、認識された人種を推測する1つのソリューションを提供する。
他のアルゴリズムと同様に、人種的推論のプロセスは慎重に考慮されていない場合、バイアスを発生させることができる。
本稿の目的は、名前に基づく人種的推論のために異なるアプローチを用いてアルゴリズムバイアスが導入された範囲を評価することである。
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
与えられた氏名や家族名、しきい値や連続分布、インプテーションの使用の効果を推定する。
その結果、人種・民族によって名前に基づく推論の有効性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
潜在的なバイアスを避けるための勧告で締めくくります。
この記事では、科学における人種格差に関するより体系的でバイアスの少ない調査の基礎を述べます。
関連論文リスト
- What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - A Novel Method for Analysing Racial Bias: Collection of Person Level
References [6.345851712811529]
本稿では,2つのグループ間の表現の差異を分析する新しい手法を提案する。
我々は1850年から2000年にかけての書籍におけるアフリカ系アメリカ人と白人の表現を、Google Booksデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-10-24T14:00:01Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Estimating Racial Disparities When Race is Not Observed [3.0931877196387196]
本稿では,人種間の格差を推定する新しいモデルについて,人種の指標変数として姓を用いて紹介する。
ノースカロライナの投票者ファイルに基づく検証調査では、BISG+BIRDiEは政党登録における人種的違いを推定した場合、エラーを最大84%削減している。
提案手法を適用し,米国内国歳入庁の個人レベルの税率データを用いて住宅ローン利子控除の恩恵を受ける者の人種差を推定する。
論文 参考訳(メタデータ) (2023-03-05T04:46:16Z) - Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Inside the Black Box: Detecting and Mitigating Algorithmic Bias across Racialized Groups in College Student-Success Prediction [1.124958340749622]
大学生の成功予測の精度が人種集団によってどのように異なるのかを,アルゴリズムバイアスのシグナルとして検討した。
人種的にマイノリティのある学生の成功を予測する際に、大学学生の成功を予測するためによく使われる機能を組み込んだモデルが、いかに正確でないかを実証する。
アルゴリズムバイアスを緩和するための一般的なアプローチは、一般的に、予測結果の相違や人種化されたグループ間の正確性を排除するのに効果がない。
論文 参考訳(メタデータ) (2023-01-10T04:48:51Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。