論文の概要: FaceSaliencyAug: Mitigating Geographic, Gender and Stereotypical Biases via Saliency-Based Data Augmentation
- arxiv url: http://arxiv.org/abs/2410.14070v1
- Date: Thu, 17 Oct 2024 22:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:26:40.051345
- Title: FaceSaliencyAug: Mitigating Geographic, Gender and Stereotypical Biases via Saliency-Based Data Augmentation
- Title(参考訳): FaceSaliencyAug:Salliency-based Data Augmentationによる地理・ジェンダー・ステレオタイプビアーゼの緩和
- Authors: Teerath Kumar, Alessandra Mileo, Malika Bendechache,
- Abstract要約: コンピュータビジョンモデルにおける性別バイアスに対処することを目的としたFaceSaliencyAugというアプローチを提案する。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットを含む5つのデータセットで、画像類似度スコア(ISS)を使用してデータセットの多様性を定量化する。
実験の結果,CNN と ViT の男女差の低減が明らかとなり,コンピュータビジョンモデルにおける公平性と傾きの促進に本手法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 46.74201905814679
- License:
- Abstract: Geographical, gender and stereotypical biases in computer vision models pose significant challenges to their performance and fairness. {In this study, we present an approach named FaceSaliencyAug aimed at addressing the gender bias in} {Convolutional Neural Networks (CNNs) and Vision Transformers (ViTs). Leveraging the salient regions} { of faces detected by saliency, the propose approach mitigates geographical and stereotypical biases } {in the datasets. FaceSaliencyAug} randomly selects masks from a predefined search space and applies them to the salient region of face images, subsequently restoring the original image with masked salient region. {The proposed} augmentation strategy enhances data diversity, thereby improving model performance and debiasing effects. We quantify dataset diversity using Image Similarity Score (ISS) across five datasets, including Flickr Faces HQ (FFHQ), WIKI, IMDB, Labelled Faces in the Wild (LFW), UTK Faces, and Diverse Dataset. The proposed approach demonstrates superior diversity metrics, as evaluated by ISS-intra and ISS-inter algorithms. Furthermore, we evaluate the effectiveness of our approach in mitigating gender bias on CEO, Engineer, Nurse, and School Teacher datasets. We use the Image-Image Association Score (IIAS) to measure gender bias in these occupations. Our experiments reveal a reduction in gender bias for both CNNs and ViTs, indicating the efficacy of our method in promoting fairness and inclusivity in computer vision models.
- Abstract(参考訳): コンピュータビジョンモデルにおける地理的、性別的、ステレオタイプ的バイアスは、その性能と公平性に重大な課題をもたらす。
本研究では,ジェンダーバイアスに対処することを目的としたFaceSaliencyAugというアプローチを,畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)で提案する。
salient region} { in the datasets, this proposed approach mitigates Geographic and stereotypeal biases } { in the datasets。
FaceSaliencyAug} は、予め定義された検索空間からマスクをランダムに選択し、それらを顔画像のサラエント領域に適用し、その後、元の画像をマスクされたサラエント領域で復元する。
提案手法は,データの多様性を高め,モデル性能とデバイアス効果を向上させる。
Flickr Faces HQ (FFHQ)、WIKI、IMDB、Labelled Faces in the Wild (LFW)、UTK Faces、Diverse Datasetを含む5つのデータセットで、画像類似度スコア(ISS)を使用してデータセットの多様性を定量化する。
提案手法は、ISSイントラアルゴリズムとISSインターアルゴリズムにより評価され、優れた多様性指標を示す。
さらに、当社のアプローチが、CEO、エンジニア、ナース、学校教師のデータセットに男女差を緩和する効果を評価した。
我々は、イメージ・イメージ・アソシエーション・スコア(IIAS)を用いて、これらの職業における性別バイアスを測定する。
実験の結果,CNN と ViT の男女差の低減が明らかとなり,コンピュータビジョンモデルにおける公平性と傾きの促進に本手法の有効性が示唆された。
関連論文リスト
- Saliency-Based diversity and fairness Metric and FaceKeepOriginalAugment: A Novel Approach for Enhancing Fairness and Diversity [46.74201905814679]
我々は、地理、性別、ステレオタイプによるコンピュータビジョンモデルにおける様々な偏見を探索する、FaceKeepOriginalAugmentと呼ばれるKeepOriginalAugment法の拡張を導入する。
データ多様性と情報保存の微妙なバランスを維持することによって、当社のアプローチは、多様な正当性と非正当性の両方を活用するモデルに力を与える。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットなど、さまざまなデータセットのデータセットの多様性を定量化しています。
論文 参考訳(メタデータ) (2024-10-29T13:49:23Z) - GABInsight: Exploring Gender-Activity Binding Bias in Vision-Language Models [3.018378575149671]
視覚言語モデル (VLM) は, 期待される性別の個人を行動のパフォーマーとして識別する傾向を示す。
画像やテキスト中の実際のパフォーマーの性別に関連づける際のこのバイアスを、ジェンダー・アクティビティ・バインド(GAB)バイアスと呼ぶ。
以上の結果から,VLMは性活動性結合バイアスに直面すると平均で約13.2%の低下を経験することが示唆された。
論文 参考訳(メタデータ) (2024-07-30T17:46:06Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。