論文の概要: Gender Stereotyping Impact in Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2210.05332v1
- Date: Tue, 11 Oct 2022 10:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:22:31.267365
- Title: Gender Stereotyping Impact in Facial Expression Recognition
- Title(参考訳): 表情認識における性ステレオタイプの影響
- Authors: Iris Dominguez-Catena, Daniel Paternain and Mikel Galar
- Abstract要約: 近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
- 参考スコア(独自算出の注目度): 1.5340540198612824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial Expression Recognition (FER) uses images of faces to identify the
emotional state of users, allowing for a closer interaction between humans and
autonomous systems. Unfortunately, as the images naturally integrate some
demographic information, such as apparent age, gender, and race of the subject,
these systems are prone to demographic bias issues. In recent years, machine
learning-based models have become the most popular approach to FER. These
models require training on large datasets of facial expression images, and
their generalization capabilities are strongly related to the characteristics
of the dataset. In publicly available FER datasets, apparent gender
representation is usually mostly balanced, but their representation in the
individual label is not, embedding social stereotypes into the datasets and
generating a potential for harm. Although this type of bias has been overlooked
so far, it is important to understand the impact it may have in the context of
FER. To do so, we use a popular FER dataset, FER+, to generate derivative
datasets with different amounts of stereotypical bias by altering the gender
proportions of certain labels. We then proceed to measure the discrepancy
between the performance of the models trained on these datasets for the
apparent gender groups. We observe a discrepancy in the recognition of certain
emotions between genders of up to $29 \%$ under the worst bias conditions. Our
results also suggest a safety range for stereotypical bias in a dataset that
does not appear to produce stereotypical bias in the resulting model. Our
findings support the need for a thorough bias analysis of public datasets in
problems like FER, where a global balance of demographic representation can
still hide other types of bias that harm certain demographic groups.
- Abstract(参考訳): 表情認識(fer)は、顔の画像を使用してユーザの感情状態を識別し、人間と自律システム間のより緊密なインタラクションを可能にする。
残念なことに、画像は自然に年齢、性別、人種などの人口統計情報を統合しているため、これらのシステムは人口統計バイアスの問題を引き起こす。
近年、機械学習ベースのモデルはFERの最も一般的なアプローチとなっている。
これらのモデルは表情画像の大規模なデータセットのトレーニングを必要とし、その一般化能力はデータセットの特性に強く関連している。
公開のferデータセットでは、見かけの性別表現は通常バランスが取れているが、個々のラベルでの表現はそうではなく、データセットに社会的ステレオタイプを埋め込み、有害な可能性を生み出す。
この種の偏見はこれまでに見過ごされてきたが、FERの文脈における影響を理解することが重要である。
そのため、fer+という一般的なFERデータセットを用いて、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
次に、これらのデータセットでトレーニングされたモデルのパフォーマンスと、見かけ上の性別群との差を測定する。
最低バイアス条件下では、性別間の特定の感情の認識において、最大29セント=$の差が観察される。
また, 結果モデルにステレオタイプバイアスを生じさせないデータセットにおいて, ステレオタイプバイアスの安全性範囲が示唆された。
私たちの発見は、ferのような問題における公開データセットの完全なバイアス分析の必要性を裏付けるものであり、人口統計学的表現のグローバルバランスは、特定の人口集団に有害な他のタイプのバイアスを隠蔽することができる。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。