論文の概要: Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2205.10049v1
- Date: Fri, 20 May 2022 09:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:42:14.705036
- Title: Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition
- Title(参考訳): データセットからモデルへの人口バイアス伝達の評価--表情認識を事例として
- Authors: Iris Dominguez-Catena, Daniel Paternain and Mikel Galar
- Abstract要約: 2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
- 参考スコア(独自算出の注目度): 1.5340540198612824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing amount of applications of Artificial Intelligence (AI) has led
researchers to study the social impact of these technologies and evaluate their
fairness. Unfortunately, current fairness metrics are hard to apply in
multi-class multi-demographic classification problems, such as Facial
Expression Recognition (FER). We propose a new set of metrics to approach these
problems. Of the three metrics proposed, two focus on the representational and
stereotypical bias of the dataset, and the third one on the residual bias of
the trained model. These metrics combined can potentially be used to study and
compare diverse bias mitigation methods. We demonstrate the usefulness of the
metrics by applying them to a FER problem based on the popular Affectnet
dataset. Like many other datasets for FER, Affectnet is a large
Internet-sourced dataset with 291,651 labeled images. Obtaining images from the
Internet raises some concerns over the fairness of any system trained on this
data and its ability to generalize properly to diverse populations. We first
analyze the dataset and some variants, finding substantial racial bias and
gender stereotypes. We then extract several subsets with different demographic
properties and train a model on each one, observing the amount of residual bias
in the different setups. We also provide a second analysis on a different
dataset, FER+.
- Abstract(参考訳): 人工知能(AI)の応用の増大により、研究者たちはこれらの技術の社会的影響を研究し、彼らの公正さを評価するようになった。
残念ながら、現在の公正度指標は、顔表情認識(FER)のようなマルチクラスマルチデマトグラフィー分類問題に適用することは困難である。
これらの問題に対処するための新しいメトリクスセットを提案する。
提案した3つの指標のうち、2つはデータセットの表現バイアスとステレオタイプバイアス、もう1つはトレーニングされたモデルの残差バイアスである。
これらの指標を組み合わせることで、様々なバイアス緩和法を研究し比較することができる。
一般的なAffectnetデータセットに基づくFER問題に適用することで,メトリクスの有用性を示す。
FERの他の多くのデータセットと同様に、Affectnetは291,651のラベル付き画像を持つ大規模なインターネットソースデータセットである。
インターネットから画像を取得することは、このデータに基づいて訓練されたシステムの公正さと、多様な集団に適切に一般化する能力に懸念を生じさせる。
まずデータセットといくつかの変種を分析し、かなりの人種バイアスと性ステレオタイプを見出した。
次に、異なる階層特性を持ついくつかのサブセットを抽出し、それぞれにモデルをトレーニングし、異なる設定における残留バイアスの量を観察します。
また、異なるデータセット FER+ に関する第2の分析結果も提供します。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - DSAP: Analyzing Bias Through Demographic Comparison of Datasets [4.8741052091630985]
DSAP(Demographic similarity from Auxiliary Profiles)は、2つのデータセットの人口構成を比較するための2段階の手法である。
DSAPは3つの主要なアプリケーションにデプロイすることができる。データセット間での人口統計学的盲点とバイアスの問題の検出と特徴付け、単一のデータセットにおけるデータセットの人口統計学的バイアスの測定、デプロイメントシナリオにおけるデータセットの人口統計学的シフトの測定である。
DSAPの重要な特徴は、明示的な人口統計ラベルなしでデータセットを堅牢に分析し、広範囲の状況に対してシンプルで解釈可能な機能を提供することである。
論文 参考訳(メタデータ) (2023-12-22T11:51:20Z) - Dataset Bias Mitigation in Multiple-Choice Visual Question Answering and
Beyond [93.96982273042296]
視覚言語(VL)理解タスクは、複数の質問を通じて複雑な視覚シーンのモデルによる理解を評価する。
我々は、モデルが様々なVLタスクを適切に理解することなく正しく解決するために、ショートカットとして活用できる2つのデータセットバイアスを特定した。
本稿では,ADS(Adversarial Data Synthesis)を用いて,合成学習データと偏り評価データを生成する。
次に、サンプル内微分に着目して、合成したトレーニングデータ、特に対物データを利用するモデルを支援するために、サンプル内対物訓練(ICT)を導入する。
論文 参考訳(メタデータ) (2023-10-23T08:09:42Z) - Metrics for Dataset Demographic Bias: A Case Study on Facial Expression Recognition [4.336779198334903]
人口統計バイアスの最も顕著な種類は、データセットにおける人口統計群の表現における統計的不均衡である。
我々はこれらの指標を分類するための分類法を開発し、適切な指標を選択するための実践的なガイドを提供する。
この論文は、データセットバイアスを緩和し、AIモデルの公正性と正確性を改善するために、AIと関連する分野の研究者に貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-28T11:04:18Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。