論文の概要: Gender Classification and Bias Mitigation in Facial Images
- arxiv url: http://arxiv.org/abs/2007.06141v1
- Date: Mon, 13 Jul 2020 01:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 23:14:40.352236
- Title: Gender Classification and Bias Mitigation in Facial Images
- Title(参考訳): 顔画像における性別分類とバイアス緩和
- Authors: Wenying Wu, Pavlos Protopapas, Zheng Yang, Panagiotis Michalatos
- Abstract要約: 最近の研究では、バイアス付きベンチマークデータベースでトレーニングされたアルゴリズムがアルゴリズムバイアスをもたらす可能性があることが示されている。
顔認証と性別分類タスクのための既存のベンチマークデータベースについて調査を行った。
我々は、分類精度の向上と、拡張ベンチマークデータベースでトレーニングされたベースラインモデルにおけるアルゴリズムバイアスの軽減に取り組みました。
- 参考スコア(独自算出の注目度): 7.438105108643341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gender classification algorithms have important applications in many domains
today such as demographic research, law enforcement, as well as human-computer
interaction. Recent research showed that algorithms trained on biased benchmark
databases could result in algorithmic bias. However, to date, little research
has been carried out on gender classification algorithms' bias towards gender
minorities subgroups, such as the LGBTQ and the non-binary population, who have
distinct characteristics in gender expression. In this paper, we began by
conducting surveys on existing benchmark databases for facial recognition and
gender classification tasks. We discovered that the current benchmark databases
lack representation of gender minority subgroups. We worked on extending the
current binary gender classifier to include a non-binary gender class. We did
that by assembling two new facial image databases: 1) a racially balanced
inclusive database with a subset of LGBTQ population 2) an inclusive-gender
database that consists of people with non-binary gender. We worked to increase
classification accuracy and mitigate algorithmic biases on our baseline model
trained on the augmented benchmark database. Our ensemble model has achieved an
overall accuracy score of 90.39%, which is a 38.72% increase from the baseline
binary gender classifier trained on Adience. While this is an initial attempt
towards mitigating bias in gender classification, more work is needed in
modeling gender as a continuum by assembling more inclusive databases.
- Abstract(参考訳): ジェンダー分類アルゴリズムは、人口統計学、法執行、人間とコンピュータの相互作用など、今日多くの領域で重要な応用がある。
最近の研究では、バイアス付きベンチマークデータベースでトレーニングされたアルゴリズムがアルゴリズム的バイアスをもたらす可能性があることが示されている。
しかし、lgbtqや非バイナリ人口など、性別表現に異なる特徴を持つ性マイノリティサブグループに対する性別分類アルゴリズムのバイアスについては、これまではほとんど研究されていない。
本稿では,顔認識および性別分類タスクのための既存のベンチマークデータベースの調査から始める。
現在のベンチマークデータベースには、性別マイノリティサブグループの表現が欠けていることが分かりました。
我々は、現在二分性分類器を拡張して、非二分性クラスを含むようにした。
私たちは2つの新しい顔画像データベースを組み立てました。
1)LGBTQ人口のサブセットを有する人種的バランスの取れた包括的データベース
2)非二元性を持つ人々からなる包括性を持つデータベース。
私たちは、拡張ベンチマークデータベースでトレーニングされたベースラインモデルにおける分類精度の向上とアルゴリズムバイアスの軽減に取り組みました。
我々のアンサンブルモデルは、Adienceで訓練されたベースラインの2進性分類器から38.72%の精度で90.39%の精度を達成している。
これは、性別分類のバイアスを軽減する最初の試みであるが、より包括的なデータベースを組み立てることで、連続体としてジェンダーをモデル化するのにより多くの作業が必要である。
関連論文リスト
- VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Gendered Language in Resumes and its Implications for Algorithmic Bias
in Hiring [0.0]
我々は応募者の性別を分類するために一連のモデルを訓練する。
我々は、履歴書から性別を難読化できるかどうか検討する。
難読化後も履歴書には男女情報が多く存在することが判明した。
論文 参考訳(メタデータ) (2021-12-16T14:26:36Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。