論文の概要: Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition
- arxiv url: http://arxiv.org/abs/2103.08637v1
- Date: Mon, 15 Mar 2021 18:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:35:58.076823
- Title: Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition
- Title(参考訳): 表情のバイアス軽減と行動単位認識のためのドメインインクリメンタル連続学習
- Authors: Nikhil Churamani, Ozgur Kara and Hatice Gunes
- Abstract要約: FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
- 参考スコア(独自算出の注目度): 5.478764356647437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Facial Expression Recognition (FER) systems become integrated into our
daily lives, these systems need to prioritise making fair decisions instead of
aiming at higher individual accuracy scores. Ranging from surveillance systems
to diagnosing mental and emotional health conditions of individuals, these
systems need to balance the accuracy vs fairness trade-off to make decisions
that do not unjustly discriminate against specific under-represented
demographic groups. Identifying bias as a critical problem in facial analysis
systems, different methods have been proposed that aim to mitigate bias both at
data and algorithmic levels. In this work, we propose the novel usage of
Continual Learning (CL), in particular, using Domain-Incremental Learning
(Domain-IL) settings, as a potent bias mitigation method to enhance the
fairness of FER systems while guarding against biases arising from skewed data
distributions. We compare different non-CL-based and CL-based methods for their
classification accuracy and fairness scores on expression recognition and
Action Unit (AU) detection tasks using two popular benchmarks, the RAF-DB and
BP4D datasets, respectively. Our experimental results show that CL-based
methods, on average, outperform other popular bias mitigation techniques on
both accuracy and fairness metrics.
- Abstract(参考訳): 顔表情認識(FER)システムが私たちの日常生活に統合されるにつれて、より高い個人精度のスコアではなく、公平な判断を優先する必要がある。
監視システムから個人の精神的および感情的な健康状態の診断まで、これらのシステムは正確さと公平さのトレードオフのバランスをとる必要がある。
顔分析システムでは, 偏見を重要な問題として同定し, 偏見をデータレベルとアルゴリズムレベルで緩和する手法が提案されている。
本研究では,特にドメイン・インクリメンタル・ラーニング(Domain-IL)の設定を,スキューデータ分布から生じるバイアスから保護しながら,FERシステムの公平性を高めるための強力なバイアス緩和手法として利用することを提案する。
RAF-DB と BP4D の2つのベンチマークを用いて,表現認識と行動単位(AU)検出タスクの分類精度と公平度を評価するために,CL ベースとCL ベースの異なる手法を比較した。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
関連論文リスト
- Improving Bias in Facial Attribute Classification: A Combined Impact of KL Divergence induced Loss Function and Dual Attention [3.5527561584422465]
初期のシステムは、特に性別や人種の分類において、しばしば人口統計上の偏見を示しており、肌の色合いが暗い女性や個人の精度は低かった。
本稿では,KL分割正規化とクロスエントロピー損失関数によって強化された,事前学習型Inception-ResNet V1モデルを用いた二重注意機構を用いた手法を提案する。
実験の結果,公正度と分類精度の両面で有意な改善が見られ,偏見に対処し,顔認識システムの信頼性を高めることが期待できる。
論文 参考訳(メタデータ) (2024-10-15T01:29:09Z) - Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards Fair Affective Robotics: Continual Learning for Mitigating Bias
in Facial Expression and Action Unit Recognition [5.478764356647437]
顔認識(FER)システムの公平性を高めるための効果的な戦略として、継続的学習(CL)を提案します。
我々は,様々な最先端バイアス緩和手法と,表現認識と行動単位検出タスクの公平性のためのCLベースの戦略を比較した。
実験の結果,CLに基づく手法は,平均的に一般的なバイアス緩和法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:36:14Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。