論文の概要: Auditing and Mitigating Bias in Gender Classification Algorithms: A Data-Centric Approach
- arxiv url: http://arxiv.org/abs/2510.17873v1
- Date: Fri, 17 Oct 2025 02:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.243145
- Title: Auditing and Mitigating Bias in Gender Classification Algorithms: A Data-Centric Approach
- Title(参考訳): 性別分類アルゴリズムにおけるバイアスの監査と緩和:データ中心的アプローチ
- Authors: Tadesse K Bahiru, Natnael Tilahun Sinshaw, Teshager Hailemariam Moges, Dheeraj Kumar Singh,
- Abstract要約: 広く使われている5つの性別分類データセットを検査し、重要な交叉表現の不足を明らかにした。
これらのデータセットのうち2つの最もバランスのとれたUTKFaceとFairFaceで、同一のMobileNetV2分類器をトレーニングします。
我々の公正性評価は、これらのモデルでさえ有意な偏見を示し、男性の顔よりも高い速度で女性の顔を誤分類していることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender classification systems often inherit and amplify demographic imbalances in their training data. We first audit five widely used gender classification datasets, revealing that all suffer from significant intersectional underrepresentation. To measure the downstream impact of these flaws, we train identical MobileNetV2 classifiers on the two most balanced of these datasets, UTKFace and FairFace. Our fairness evaluation shows that even these models exhibit significant bias, misclassifying female faces at a higher rate than male faces and amplifying existing racial skew. To counter these data-induced biases, we construct BalancedFace, a new public dataset created by blending images from FairFace and UTKFace, supplemented with images from other collections to fill missing demographic gaps. It is engineered to equalize subgroup shares across 189 intersections of age, race, and gender using only real, unedited images. When a standard classifier is trained on BalancedFace, it reduces the maximum True Positive Rate gap across racial subgroups by over 50% and brings the average Disparate Impact score 63% closer to the ideal of 1.0 compared to the next-best dataset, all with a minimal loss of overall accuracy. These results underline the profound value of data-centric interventions and provide an openly available resource for fair gender classification research.
- Abstract(参考訳): ジェンダー分類システムは、しばしば、トレーニングデータにおける人口動態の不均衡を継承し、増幅する。
最初に、広く使われている5つの性別分類データセットを監査し、すべての人が大きな交叉不足に悩まされていることを明らかにした。
これらの欠陥の下流への影響を測定するために、同じMobileNetV2分類器をUTKFaceとFairFaceの2つの最もバランスのとれたデータセットでトレーニングする。
我々の公正性評価は、これらのモデルでさえ有意な偏見を示し、男性の顔よりも高い速度で女性の顔を誤分類し、既存の人種的偏見を増幅していることを示している。
これらのデータによるバイアスに対処するため、FairFaceとUTKFaceの画像をブレンドして作成した新しいパブリックデータセットである BalancedFaceを構築し、他のコレクションのイメージを補完して、欠落した人口格差を埋める。
年齢、人種、性別の189の交差点にまたがるサブグループのシェアを、本物の未編集の画像だけを使って平等にするために設計された。
BalancedFaceで標準分類器をトレーニングすると、人種サブグループ間での最大正の正の比率ギャップを50%以上削減し、次のベストデータセットと比較して、平均的な異種影響スコアが1.0の理想に63%近づき、全体的な正確さが最小限に抑えられる。
これらの結果は、データ中心の介入の深い価値を明らかにし、公正な性別分類研究のための公開リソースを提供する。
関連論文リスト
- Fairness Without Labels: Pseudo-Balancing for Bias Mitigation in Face Gender Classification [10.66892435479991]
顔の性別分類モデルは、しばしば、トレーニングデータに存在する人口統計バイアスを反映し、増幅する。
半教師付き学習において,そのようなバイアスを軽減するためのシンプルで効果的な戦略である擬似バランスを導入する。
本手法は,レースバランスデータセットからのラベルなし画像のみを用いて,擬似ラベル選択時の人口収支を強制する。
論文 参考訳(メタデータ) (2025-10-11T12:08:40Z) - Person-Centric Annotations of LAION-400M: Auditing Bias and Its Transfer to Models [81.45743826739054]
大きな障壁は、LAION-400MのようなWebスケールデータセットにおける人口統計アノテーションの欠如である。
2億7600万以上のバウンディングボックスや、性別や人種/民族ラベルの認識、キャプションの自動生成など、完全なデータセットのための人中心アノテーションを作成します。
それらを用いて、黒人や中東と見なされる男性や個人と犯罪に関連する負のコンテンツとの不均等な結びつきなど、人口不均衡や有害な関連を明らかにする。
論文 参考訳(メタデータ) (2025-10-04T07:51:59Z) - On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Face Recognition: Too Bias, or Not Too Bias? [45.404162391012726]
我々は、最先端の顔認識システムにおけるバイアスの問題に対する批判的な洞察を明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
また、人間の知覚にそのようなバイアスが存在するという仮説を支持する、人間のバイアスを測定するために、人間の評価を行う。
論文 参考訳(メタデータ) (2020-02-16T01:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。