論文の概要: Racial/Ethnic Categories in AI and Algorithmic Fairness: Why They Matter and What They Represent
- arxiv url: http://arxiv.org/abs/2404.06717v1
- Date: Wed, 10 Apr 2024 04:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:39:25.672317
- Title: Racial/Ethnic Categories in AI and Algorithmic Fairness: Why They Matter and What They Represent
- Title(参考訳): AIとアルゴリズムフェアネスにおける人種/民族カテゴリー:なぜそれらが重要で表現されるのか
- Authors: Jennifer Mickel,
- Abstract要約: 我々は、不明確な仮定とほとんど正当化されていない人種的カテゴリーが、どのようにしてグループを粗末に表現する様々なデータセットをもたらすかを示す。
また、人種カテゴリーの選択における選択と仮定、およびこれらのカテゴリーへの人種化の過程を文書化するためのフレームワークであるCIRCSheetsも開発している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Racial diversity has become increasingly discussed within the AI and algorithmic fairness literature, yet little attention is focused on justifying the choices of racial categories and understanding how people are racialized into these chosen racial categories. Even less attention is given to how racial categories shift and how the racialization process changes depending on the context of a dataset or model. An unclear understanding of \textit{who} comprises the racial categories chosen and \textit{how} people are racialized into these categories can lead to varying interpretations of these categories. These varying interpretations can lead to harm when the understanding of racial categories and the racialization process is misaligned from the actual racialization process and racial categories used. Harm can also arise if the racialization process and racial categories used are irrelevant or do not exist in the context they are applied. In this paper, we make two contributions. First, we demonstrate how racial categories with unclear assumptions and little justification can lead to varying datasets that poorly represent groups obfuscated or unrepresented by the given racial categories and models that perform poorly on these groups. Second, we develop a framework, CIRCSheets, for documenting the choices and assumptions in choosing racial categories and the process of racialization into these categories to facilitate transparency in understanding the processes and assumptions made by dataset or model developers when selecting or using these racial categories.
- Abstract(参考訳): 人種の多様性は、AIとアルゴリズムの公平性文学の中で議論されているが、人種カテゴリーの選択を正当化し、人々がこれらの選択された人種カテゴリーに人種化されているかを理解することにはほとんど注目されていない。
さらに、人種的カテゴリーの変化や、人種化プロセスがデータセットやモデルのコンテキストによってどのように変化するかに注意が払われる。
選抜された人種的カテゴリーと、これらのカテゴリに人種化されている「textit{who}」の明確な理解は、これらのカテゴリの様々な解釈につながる可能性がある。
これらの様々な解釈は、人種分類の理解と人種化のプロセスが実際の人種化のプロセスと使用される人種化のプロセスと誤って一致している場合、害をもたらす可能性がある。
ハームはまた、人種化プロセスと使用される人種分類が適用される文脈に無関係または存在しない場合にも生じる。
本稿では2つのコントリビューションを行う。
まず、不明確な仮定とほとんど正当化されていない人種的カテゴリーが、これらのグループで不十分な人種的カテゴリーやモデルによって隠蔽された、あるいは表現されていないグループを表現する様々なデータセットをいかに生み出すかを示す。
第2に、人種カテゴリーの選択における選択と仮定を文書化するフレームワークであるCIRCSheetsを開発し、これらのカテゴリを選択したり使用する際に、データセットやモデル開発者が作成したプロセスや仮定を透過的に理解できるようにする。
関連論文リスト
- The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Machines Do See Color: A Guideline to Classify Different Forms of Racist
Discourse in Large Corpora [0.0]
テキストで人種差別的言語を識別し分類する現在の手法は、人種差別的言説の過度な形式にのみ焦点をあてる小さなnの質的アプローチや大規模nのアプローチに依存している。
本稿では、大規模コーパスにおける異なる形態の人種差別的言説を識別し分類するためのステップバイステップの一般化可能なガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-17T16:57:18Z) - An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature [2.2713084727838115]
アルゴリズムフェアネスフレームワークにおいて、レースがどのように概念化され、形式化されるかを分析する。
人種の異なる概念は、時には1つの分析の範囲内でも、矛盾なく採用されていることが分かっています。
人種的カテゴリーの構築は、社会的、政治的に重要な結果をもたらす価値の高いプロセスである、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-12T21:23:29Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。