論文の概要: Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition
- arxiv url: http://arxiv.org/abs/2103.08637v1
- Date: Mon, 15 Mar 2021 18:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:35:58.076823
- Title: Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition
- Title(参考訳): 表情のバイアス軽減と行動単位認識のためのドメインインクリメンタル連続学習
- Authors: Nikhil Churamani, Ozgur Kara and Hatice Gunes
- Abstract要約: FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
- 参考スコア(独自算出の注目度): 5.478764356647437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Facial Expression Recognition (FER) systems become integrated into our
daily lives, these systems need to prioritise making fair decisions instead of
aiming at higher individual accuracy scores. Ranging from surveillance systems
to diagnosing mental and emotional health conditions of individuals, these
systems need to balance the accuracy vs fairness trade-off to make decisions
that do not unjustly discriminate against specific under-represented
demographic groups. Identifying bias as a critical problem in facial analysis
systems, different methods have been proposed that aim to mitigate bias both at
data and algorithmic levels. In this work, we propose the novel usage of
Continual Learning (CL), in particular, using Domain-Incremental Learning
(Domain-IL) settings, as a potent bias mitigation method to enhance the
fairness of FER systems while guarding against biases arising from skewed data
distributions. We compare different non-CL-based and CL-based methods for their
classification accuracy and fairness scores on expression recognition and
Action Unit (AU) detection tasks using two popular benchmarks, the RAF-DB and
BP4D datasets, respectively. Our experimental results show that CL-based
methods, on average, outperform other popular bias mitigation techniques on
both accuracy and fairness metrics.
- Abstract(参考訳): 顔表情認識(FER)システムが私たちの日常生活に統合されるにつれて、より高い個人精度のスコアではなく、公平な判断を優先する必要がある。
監視システムから個人の精神的および感情的な健康状態の診断まで、これらのシステムは正確さと公平さのトレードオフのバランスをとる必要がある。
顔分析システムでは, 偏見を重要な問題として同定し, 偏見をデータレベルとアルゴリズムレベルで緩和する手法が提案されている。
本研究では,特にドメイン・インクリメンタル・ラーニング(Domain-IL)の設定を,スキューデータ分布から生じるバイアスから保護しながら,FERシステムの公平性を高めるための強力なバイアス緩和手法として利用することを提案する。
RAF-DB と BP4D の2つのベンチマークを用いて,表現認識と行動単位(AU)検出タスクの分類精度と公平度を評価するために,CL ベースとCL ベースの異なる手法を比較した。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Evaluating Proposed Fairness Models for Face Recognition Algorithms [0.0]
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
論文 参考訳(メタデータ) (2022-03-09T21:16:43Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards Fair Affective Robotics: Continual Learning for Mitigating Bias
in Facial Expression and Action Unit Recognition [5.478764356647437]
顔認識(FER)システムの公平性を高めるための効果的な戦略として、継続的学習(CL)を提案します。
我々は,様々な最先端バイアス緩和手法と,表現認識と行動単位検出タスクの公平性のためのCLベースの戦略を比較した。
実験の結果,CLに基づく手法は,平均的に一般的なバイアス緩和法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:36:14Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。