論文の概要: Fairness Without Labels: Pseudo-Balancing for Bias Mitigation in Face Gender Classification
- arxiv url: http://arxiv.org/abs/2510.10191v1
- Date: Sat, 11 Oct 2025 12:08:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.834289
- Title: Fairness Without Labels: Pseudo-Balancing for Bias Mitigation in Face Gender Classification
- Title(参考訳): ラベルのないフェアネス:顔の性別分類におけるバイアス軽減のための擬似バランシング
- Authors: Haohua Dong, Ana Manzano Rodríguez, Camille Guinaudeau, Shin'ichi Satoh,
- Abstract要約: 顔の性別分類モデルは、しばしば、トレーニングデータに存在する人口統計バイアスを反映し、増幅する。
半教師付き学習において,そのようなバイアスを軽減するためのシンプルで効果的な戦略である擬似バランスを導入する。
本手法は,レースバランスデータセットからのラベルなし画像のみを用いて,擬似ラベル選択時の人口収支を強制する。
- 参考スコア(独自算出の注目度): 10.66892435479991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face gender classification models often reflect and amplify demographic biases present in their training data, leading to uneven performance across gender and racial subgroups. We introduce pseudo-balancing, a simple and effective strategy for mitigating such biases in semi-supervised learning. Our method enforces demographic balance during pseudo-label selection, using only unlabeled images from a race-balanced dataset without requiring access to ground-truth annotations. We evaluate pseudo-balancing under two conditions: (1) fine-tuning a biased gender classifier using unlabeled images from the FairFace dataset, and (2) stress-testing the method with intentionally imbalanced training data to simulate controlled bias scenarios. In both cases, models are evaluated on the All-Age-Faces (AAF) benchmark, which contains a predominantly East Asian population. Our results show that pseudo-balancing consistently improves fairness while preserving or enhancing accuracy. The method achieves 79.81% overall accuracy - a 6.53% improvement over the baseline - and reduces the gender accuracy gap by 44.17%. In the East Asian subgroup, where baseline disparities exceeded 49%, the gap is narrowed to just 5.01%. These findings suggest that even in the absence of label supervision, access to a demographically balanced or moderately skewed unlabeled dataset can serve as a powerful resource for debiasing existing computer vision models.
- Abstract(参考訳): 顔の性別分類モデルは、しばしば彼らのトレーニングデータに存在する人口統計バイアスを反映し、増幅し、性別と人種のサブグループ間で不均一なパフォーマンスをもたらす。
半教師付き学習において,そのようなバイアスを軽減するためのシンプルで効果的な戦略である擬似バランスを導入する。
提案手法では, 提案手法は, 地平線アノテーションを必要とせずに, レースバランスデータセットからのラベル付き画像のみを用いて, 擬似ラベル選択時の人口収支を強制する。
本研究では,(1)FairFaceデータセットからの未ラベル画像を用いたバイアス付き性別分類器の微調整,(2)意図的不均衡なトレーニングデータによるストレステストを行い,制御されたバイアスシナリオをシミュレートした。
どちらの場合も、主に東アジアの人口を含むAll-Age-Faces(AAF)ベンチマークでモデルを評価する。
以上の結果から,疑似バランスは精度を保ったり,向上させたりしながら,常に公平性を向上させることが示唆された。
この方法は、全体の79.81%の精度(ベースラインよりも6.53%改善)を達成し、性別の精度ギャップを44.17%削減する。
ベースライン格差が49%を超える東アジアのサブグループでは、ギャップは5.01%に狭められている。
これらの結果は、ラベルの監督がなくても、人口統計学的にバランスが取れたり、適度に歪んだデータセットへのアクセスが、既存のコンピュータビジョンモデルを悪用するための強力なリソースとなることを示唆している。
関連論文リスト
- Auditing and Mitigating Bias in Gender Classification Algorithms: A Data-Centric Approach [0.0]
広く使われている5つの性別分類データセットを検査し、重要な交叉表現の不足を明らかにした。
これらのデータセットのうち2つの最もバランスのとれたUTKFaceとFairFaceで、同一のMobileNetV2分類器をトレーニングします。
我々の公正性評価は、これらのモデルでさえ有意な偏見を示し、男性の顔よりも高い速度で女性の顔を誤分類していることを示している。
論文 参考訳(メタデータ) (2025-10-17T02:09:17Z) - LLM-Guided Synthetic Augmentation (LGSA) for Mitigating Bias in AI Systems [0.24699742392288992]
特定のグループの控えめな表現は、しばしば人口統計学的に不均一なパフォーマンスをもたらす。
これらの課題に対処するために,LLM-Guided Synthetic Augmentation (LGSA)を提案する。
LGSAは、ラベルの整合性を保ちながら、大きな言語モデルを使用して、表現不足のグループの反実例を生成する。
論文 参考訳(メタデータ) (2025-10-15T06:42:35Z) - Person-Centric Annotations of LAION-400M: Auditing Bias and Its Transfer to Models [81.45743826739054]
大きな障壁は、LAION-400MのようなWebスケールデータセットにおける人口統計アノテーションの欠如である。
2億7600万以上のバウンディングボックスや、性別や人種/民族ラベルの認識、キャプションの自動生成など、完全なデータセットのための人中心アノテーションを作成します。
それらを用いて、黒人や中東と見なされる男性や個人と犯罪に関連する負のコンテンツとの不均等な結びつきなど、人口不均衡や有害な関連を明らかにする。
論文 参考訳(メタデータ) (2025-10-04T07:51:59Z) - Bias in Gender Bias Benchmarks: How Spurious Features Distort Evaluation [116.86965910589775]
対象物の10%だけをマスクしたり、背景が弱くぼやけたりといった、最小限の摂動でさえ、バイアススコアを劇的に変える可能性がある。
これは、現在のバイアス評価がモデル応答を、性別バイアスよりも刺激的な特徴に反映していることを示唆している。
論文 参考訳(メタデータ) (2025-09-09T11:14:11Z) - Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Debiased Learning from Naturally Imbalanced Pseudo-Labels for Zero-Shot
and Semi-Supervised Learning [27.770473405635585]
この研究は、疑似ラベルのバイアス問題を研究する。これは、広く起こるが、しばしば先行研究によって見落とされがちな自然現象である。
半教師付き学習モデルであるFixMatchは、ラベルなしデータを計算したとしても、ラベルなし集合上のラベルを予測したとき、重く長い尾の擬似ラベルを観察する。
介入なしに、トレーニングモデルは擬似ラベルからバイアスを継承し、最終的には準最適となる。
論文 参考訳(メタデータ) (2022-01-05T07:40:24Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Post-Comparison Mitigation of Demographic Bias in Face Recognition Using
Fair Score Normalization [15.431761867166]
顔認識におけるバイアスの影響を低減するために,教師なしのフェアスコア正規化手法を提案する。
我々の解決策は、性別を考慮した場合の人口バイアスを最大82.7%削減する。
従来の研究とは対照的に、我々の公正な正規化アプローチは、偽一致率0.001で53.2%、偽一致率0.00001で82.9%まで全体の性能を向上させる。
論文 参考訳(メタデータ) (2020-02-10T08:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。