論文の概要: Uncovering the Bias in Facial Expressions
- arxiv url: http://arxiv.org/abs/2011.11311v2
- Date: Tue, 16 Nov 2021 09:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:18:31.714039
- Title: Uncovering the Bias in Facial Expressions
- Title(参考訳): 表情のバイアスを明らかにする
- Authors: Jessica Deuschel, Bettina Finzel, Ines Rieger
- Abstract要約: 我々は、アクションユニット分類のためのニューラルネットワークを訓練し、その精度と熱マップに基づく定性に基づいて、その性能を定量的に分析する。
結果の構造化されたレビューは、偏見を検出することができることを示している。
この結果から、性別や肌の色偏りのみから低い分類性能が出現したと結論付けることはできないが、これらのバイアスに対処する必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decades the machine and deep learning community has celebrated
great achievements in challenging tasks such as image classification. The deep
architecture of artificial neural networks together with the plenitude of
available data makes it possible to describe highly complex relations. Yet, it
is still impossible to fully capture what the deep learning model has learned
and to verify that it operates fairly and without creating bias, especially in
critical tasks, for instance those arising in the medical field. One example
for such a task is the detection of distinct facial expressions, called Action
Units, in facial images. Considering this specific task, our research aims to
provide transparency regarding bias, specifically in relation to gender and
skin color. We train a neural network for Action Unit classification and
analyze its performance quantitatively based on its accuracy and qualitatively
based on heatmaps. A structured review of our results indicates that we are
able to detect bias. Even though we cannot conclude from our results that lower
classification performance emerged solely from gender and skin color bias,
these biases must be addressed, which is why we end by giving suggestions on
how the detected bias can be avoided.
- Abstract(参考訳): 過去数十年にわたり、機械学習とディープラーニングのコミュニティは、画像分類などの課題で大きな成果を上げてきた。
ニューラルネットワークの深いアーキテクチャと利用可能なデータの豊かさによって、非常に複雑な関係を記述できる。
しかし、深層学習モデルが学んだことを完全に把握することは不可能であり、特に医療現場で発生する重要なタスクにおいて、偏見を生じさせることなく、公平に動作していることを確認することは不可能である。
そのようなタスクの1つの例は、顔画像中の異なる表情(アクションユニットと呼ばれる)を検出することである。
本研究は, 性別や肌の色に関して, 偏見に関する透明性を提供することを目的としている。
我々は、アクションユニット分類のためのニューラルネットワークを訓練し、その精度と熱マップに基づく定性に基づいてその性能を定量的に分析する。
結果の構造化されたレビューは、バイアスを検出できることを示している。
結果から、性別や肌の色偏見のみから低い分類性能が出現したと結論付けることはできないが、これらのバイアスに対処する必要がある。
関連論文リスト
- Evaluating Visual Number Discrimination in Deep Neural Networks [8.447161322658628]
視覚特異的帰納バイアスは数奇性判別に有効であることを示す。
最も強力なモデルでさえ、標準的な性能測定基準で測定されているように、転送実験の量を識別することができない。
論文 参考訳(メタデータ) (2023-03-13T15:14:26Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Rethinking the Image Feature Biases Exhibited by Deep CNN Models [14.690952990358095]
人間の直感に基づいて2つの分類タスクを訓練し、予測されるバイアスを特定する。
特定の機能の組み合わせ効果は、通常、どの機能よりもはるかに影響が大きいと結論付けます。
論文 参考訳(メタデータ) (2021-11-03T08:04:06Z) - Understanding and Mitigating Annotation Bias in Facial Expression
Recognition [3.325054486984015]
現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T05:28:07Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。