論文の概要: Faces of Fairness: Examining Bias in Facial Expression Recognition Datasets and Models
- arxiv url: http://arxiv.org/abs/2502.11049v1
- Date: Sun, 16 Feb 2025 09:23:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:10:54.581967
- Title: Faces of Fairness: Examining Bias in Facial Expression Recognition Datasets and Models
- Title(参考訳): フェアネスの顔:表情認識データセットとモデルにおけるバイアスの検討
- Authors: Mohammad Mehdi Hosseini, Ali Pourramezan Fard, Mohammad H. Mahoor,
- Abstract要約: 本研究では、FERデータセットとモデルにおけるバイアス源について検討する。
AffectNet、ExpW、Fer2013、RAF-DBの4つの共通のFERデータセットが分析されている。
本研究は、最先端畳み込みニューラルネットワーク(CNN)モデルを含む6つの深層モデルのバイアスと公平性を評価する。
- 参考スコア(独自算出の注目度): 2.8893654860442872
- License:
- Abstract: Building AI systems, including Facial Expression Recognition (FER), involves two critical aspects: data and model design. Both components significantly influence bias and fairness in FER tasks. Issues related to bias and fairness in FER datasets and models remain underexplored. This study investigates bias sources in FER datasets and models. Four common FER datasets--AffectNet, ExpW, Fer2013, and RAF-DB--are analyzed. The findings demonstrate that AffectNet and ExpW exhibit high generalizability despite data imbalances. Additionally, this research evaluates the bias and fairness of six deep models, including three state-of-the-art convolutional neural network (CNN) models: MobileNet, ResNet, XceptionNet, as well as three transformer-based models: ViT, CLIP, and GPT-4o-mini. Experimental results reveal that while GPT-4o-mini and ViT achieve the highest accuracy scores, they also display the highest levels of bias. These findings underscore the urgent need for developing new methodologies to mitigate bias and ensure fairness in datasets and models, particularly in affective computing applications. See our implementation details at https://github.com/MMHosseini/bias_in_FER.
- Abstract(参考訳): 表情認識(FER)を含むAIシステムの構築には、データとモデル設計という2つの重要な側面がある。
両方のコンポーネントは、FERタスクのバイアスと公平性に大きな影響を与えます。
FERデータセットとモデルにおけるバイアスと公平性に関する問題は、未調査のままである。
本研究では、FERデータセットとモデルにおけるバイアス源について検討する。
AffectNet、ExpW、Fer2013、RAF-DBの4つの共通のFERデータセットが分析されている。
その結果,データ不均衡にもかかわらず,AffectNetとExpWは高い一般化性を示した。
さらに、この研究では、MobileNet、ResNet、XceptionNetの3つの最先端畳み込みニューラルネットワーク(CNN)モデルと、ViT、CLIP、GPT-4o-miniの3つのトランスフォーマーベースのモデルを含む6つのディープモデルのバイアスと公平性を評価する。
実験の結果, GPT-4o-mini と ViT が最も精度が高いが, 偏差も高いことがわかった。
これらの知見は、特に感情的コンピューティングアプリケーションにおいて、バイアスを緩和し、データセットやモデルの公平性を確保するための新しい方法論を開発するための緊急の必要性を浮き彫りにしている。
実装の詳細はhttps://github.com/MMHosseini/bias_in_FERを参照してください。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Learning Fairer Representations with FairVIC [0.0]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。