論文の概要: Responsible AI: Gender bias assessment in emotion recognition
- arxiv url: http://arxiv.org/abs/2103.11436v1
- Date: Sun, 21 Mar 2021 17:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 12:35:00.715917
- Title: Responsible AI: Gender bias assessment in emotion recognition
- Title(参考訳): レスポンシブルAI:感情認識におけるジェンダーバイアスアセスメント
- Authors: Artem Domnich and Gholamreza Anbarjafari
- Abstract要約: 本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
- 参考スコア(独自算出の注目度): 6.833826997240138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid development of artificial intelligence (AI) systems amplify many
concerns in society. These AI algorithms inherit different biases from humans
due to mysterious operational flow and because of that it is becoming adverse
in usage. As a result, researchers have started to address the issue by
investigating deeper in the direction towards Responsible and Explainable AI.
Among variety of applications of AI, facial expression recognition might not be
the most important one, yet is considered as a valuable part of human-AI
interaction. Evolution of facial expression recognition from the feature based
methods to deep learning drastically improve quality of such algorithms. This
research work aims to study a gender bias in deep learning methods for facial
expression recognition by investigating six distinct neural networks, training
them, and further analysed on the presence of bias, according to the three
definition of fairness. The main outcomes show which models are gender biased,
which are not and how gender of subject affects its emotion recognition. More
biased neural networks show bigger accuracy gap in emotion recognition between
male and female test sets. Furthermore, this trend keeps for true positive and
false positive rates. In addition, due to the nature of the research, we can
observe which types of emotions are better classified for men and which for
women. Since the topic of biases in facial expression recognition is not well
studied, a spectrum of continuation of this research is truly extensive, and
may comprise detail analysis of state-of-the-art methods, as well as targeting
other biases.
- Abstract(参考訳): 人工知能(AI)システムの急速な発展は、社会における多くの懸念を増幅する。
これらのaiアルゴリズムは、神秘的な運用フローと、使用方法の悪さのために、人間から異なるバイアスを継承している。
その結果、研究者はResponsible and Explainable AIの方向性を深く調査し、この問題に対処し始めた。
AIの様々な応用の中で、表情認識が最も重要ではないかもしれないが、人間とAIの相互作用の貴重な部分と見なされている。
特徴に基づく手法からの表情認識の進化は、そのようなアルゴリズムの品質を大幅に向上させる。
本研究は,6つの異なるニューラルネットワークを探索し,それらを訓練することにより,表情認識のための深層学習手法における性別バイアスを研究することを目的とする。
主な結果は、どのモデルが性別バイアスであり、どのモデルではないか、そして、被験者の性別が感情認識にどのように影響するかを示す。
より偏りのあるニューラルネットワークは、男性と女性のテストセット間の感情認識において、より大きな精度のギャップを示す。
さらに、この傾向は真の陽性率と偽陽性率を維持している。
また,研究の性質から,男性と女性とではどの感情がよく分類されているかが観察できる。
表情認識におけるバイアスの話題はよく研究されていないため、この研究の継続スペクトルは真に広く、最先端の手法の詳細な分析と、他のバイアスをターゲットにしている可能性がある。
関連論文リスト
- "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law [0.0]
本研究は,社会的ステレオタイプとアルゴリズム決定の相互作用に光を当てて,性別分類システムについて考察する。
認知心理学とフェミニスト法理論を取り入れることで、AIトレーニングに使用されるデータがジェンダーの多様性と公平性をいかに促進するかを検討する。
論文 参考訳(メタデータ) (2024-06-27T20:03:27Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Uncovering the Bias in Facial Expressions [0.0]
我々は、アクションユニット分類のためのニューラルネットワークを訓練し、その精度と熱マップに基づく定性に基づいて、その性能を定量的に分析する。
結果の構造化されたレビューは、偏見を検出することができることを示している。
この結果から、性別や肌の色偏りのみから低い分類性能が出現したと結論付けることはできないが、これらのバイアスに対処する必要がある。
論文 参考訳(メタデータ) (2020-11-23T10:20:10Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。