論文の概要: One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision
- arxiv url: http://arxiv.org/abs/2102.02320v1
- Date: Wed, 3 Feb 2021 22:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:08:47.903900
- Title: One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision
- Title(参考訳): 10億の顔というラベル:コンピュータビジョンにおける人種カテゴリの使用と一貫性
- Authors: Zaid Khan and Yun Fu
- Abstract要約: 顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
- 参考スコア(独自算出の注目度): 75.82110684355979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision is widely deployed, has highly visible, society altering
applications, and documented problems with bias and representation. Datasets
are critical for benchmarking progress in fair computer vision, and often
employ broad racial categories as population groups for measuring group
fairness. Similarly, diversity is often measured in computer vision datasets by
ascribing and counting categorical race labels. However, racial categories are
ill-defined, unstable temporally and geographically, and have a problematic
history of scientific use. Although the racial categories used across datasets
are superficially similar, the complexity of human race perception suggests the
racial system encoded by one dataset may be substantially inconsistent with
another. Using the insight that a classifier can learn the racial system
encoded by a dataset, we conduct an empirical study of computer vision datasets
supplying categorical race labels for face images to determine the
cross-dataset consistency and generalization of racial categories. We find that
each dataset encodes a substantially unique racial system, despite nominally
equivalent racial categories, and some racial categories are systemically less
consistent than others across datasets. We find evidence that racial categories
encode stereotypes, and exclude ethnic groups from categories on the basis of
nonconformity to stereotypes. Representing a billion humans under one racial
category may obscure disparities and create new ones by encoding stereotypes of
racial systems. The difficulty of adequately converting the abstract concept of
race into a tool for measuring fairness underscores the need for a method more
flexible and culturally aware than racial categories.
- Abstract(参考訳): コンピュータビジョンは広くデプロイされ、可視性が高く、アプリケーションを変え、バイアスと表現に関する問題を文書化している。
データセットは、公正なコンピュータビジョンの進捗をベンチマークするために重要であり、しばしば集団の公平さを測定するために、幅広い人種的カテゴリーを用いる。
同様に、多様性はしばしば分類的人種ラベルを記述し数えることでコンピュータビジョンデータセットで測定される。
しかし、人種分類は不定義であり、時間的にも地理的にも不安定であり、科学的利用の歴史に問題がある。
データセット全体で使用される人種分類は表面的に類似しているが、人間の人種認識の複雑さは、あるデータセットで符号化された人種システムは、他のデータセットと実質的に矛盾している可能性を示唆している。
分類器がデータセットにエンコードされた人種システムを学習できるという洞察を用いて、顔画像に分類的人種ラベルを供給するコンピュータビジョンデータセットの実証研究を行い、人種カテゴリの横断的一貫性と一般化を判定する。
各データセットは、名目上同等の人種分類にもかかわらず、実質的に一意な人種体系を符号化しており、いくつかの人種分類は、他のデータセットよりも系統的に一貫性が低い。
人種的カテゴリーがステレオタイプを符号化し、非共形性からステレオタイプに基いて民族集団をカテゴリーから除外する証拠を見いだす。
1つの人種カテゴリーの下で10億人の人間を表現することは、人種システムのステレオタイプをエンコードすることで、格差を曖昧にし、新しいものを創造するかもしれない。
人種の抽象概念を公平性を測定するためのツールに適切に変換することは困難であり、人種圏よりも柔軟で文化的に認識される方法の必要性を強調している。
関連論文リスト
- Racial/Ethnic Categories in AI and Algorithmic Fairness: Why They Matter and What They Represent [0.0]
我々は、不明確な仮定とほとんど正当化されていない人種的カテゴリーが、どのようにしてグループを粗末に表現する様々なデータセットをもたらすかを示す。
また、人種カテゴリーの選択における選択と仮定、およびこれらのカテゴリーへの人種化の過程を文書化するためのフレームワークであるCIRCSheetsも開発している。
論文 参考訳(メタデータ) (2024-04-10T04:04:05Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature [2.2713084727838115]
アルゴリズムフェアネスフレームワークにおいて、レースがどのように概念化され、形式化されるかを分析する。
人種の異なる概念は、時には1つの分析の範囲内でも、矛盾なく採用されていることが分かっています。
人種的カテゴリーの構築は、社会的、政治的に重要な結果をもたらす価値の高いプロセスである、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-12T21:23:29Z) - Addressing Racial Bias in Facial Emotion Recognition [1.4896509623302834]
本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析に焦点を当てた。
その結果,シミュレーションが人種的バランスに近づくにつれて,顔の小さいデータセットは公平さとパフォーマンスの指標の両方を改善することが示唆された。
顔の変動が大きい大きなデータセットでは、公正度指標は概して一定であり、人種的バランス自体が異なる人種グループ間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
論文 参考訳(メタデータ) (2023-08-09T03:03:35Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。