論文の概要: FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features
- arxiv url: http://arxiv.org/abs/2408.16881v1
- Date: Thu, 29 Aug 2024 20:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 17:08:59.106708
- Title: FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features
- Title(参考訳): FineFACE: きめ細かい特徴を活用した顔属性分類
- Authors: Ayesha Manzoor, Ajita Rattani,
- Abstract要約: 自動的な顔属性分類アルゴリズムでは、人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性の間のトレードオフを得る。
そこで本稿では, 顔属性の公平な分類法を, きめ細かな分類問題とみなして提案する。
- 参考スコア(独自算出の注目度): 3.9440964696313485
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Published research highlights the presence of demographic bias in automated facial attribute classification algorithms, particularly impacting women and individuals with darker skin tones. Existing bias mitigation techniques typically require demographic annotations and often obtain a trade-off between fairness and accuracy, i.e., Pareto inefficiency. Facial attributes, whether common ones like gender or others such as "chubby" or "high cheekbones", exhibit high interclass similarity and intraclass variation across demographics leading to unequal accuracy. This requires the use of local and subtle cues using fine-grained analysis for differentiation. This paper proposes a novel approach to fair facial attribute classification by framing it as a fine-grained classification problem. Our approach effectively integrates both low-level local features (like edges and color) and high-level semantic features (like shapes and structures) through cross-layer mutual attention learning. Here, shallow to deep CNN layers function as experts, offering category predictions and attention regions. An exhaustive evaluation on facial attribute annotated datasets demonstrates that our FineFACE model improves accuracy by 1.32% to 1.74% and fairness by 67% to 83.6%, over the SOTA bias mitigation techniques. Importantly, our approach obtains a Pareto-efficient balance between accuracy and fairness between demographic groups. In addition, our approach does not require demographic annotations and is applicable to diverse downstream classification tasks. To facilitate reproducibility, the code and dataset information is available at https://github.com/VCBSL-Fairness/FineFACE.
- Abstract(参考訳): 公開された研究では、自動的な顔属性分類アルゴリズムにおける人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性、すなわちパレートの不効率の間のトレードオフを得る。
顔の特徴、例えば「シュービー」や「高い頬骨」のような一般的な特徴は、階級間類似度が高く、階級間での階級内変動は、不平等な正確さをもたらす。
これにより、局所的および微妙な手がかりを微粒な分析で区別する必要がある。
本稿では, 顔の属性を細粒度に分類することで, 顔の属性を公平に分類する手法を提案する。
提案手法は,低レベルの局所的特徴(エッジやカラーなど)と高レベルの意味的特徴(形状や構造など)を層間相互注意学習を通じて効果的に統合する。
ここでは、浅いから深いCNN層が専門家として機能し、カテゴリ予測と注意領域を提供する。
顔属性アノテートデータセットの徹底的な評価は、私たちのFineFACEモデルがSOTAバイアス軽減技術よりも精度を1.32%から1.74%、公平性を67%から83.6%改善していることを示している。
提案手法は,人口集団間の精度と公平性の間にパレート効率のバランスをとる。
さらに,本手法は人口統計学的なアノテーションを必要とせず,下流の多様な分類タスクに適用可能である。
再現性を促進するため、コードとデータセット情報はhttps://github.com/VCBSL-Fairness/FineFACEで公開されている。
関連論文リスト
- LabellessFace: Fair Metric Learning for Face Recognition without Attribute Labels [0.11999555634662631]
本稿では,グループラベリングを必要とせず,顔認識における階層バイアスを改善するフレームワークであるLabellessFace'を紹介する。
本稿では,特定のクラスに対する好意度を評価するための,クラス好意度と呼ばれる新しいフェアネス向上尺度を提案する。
本手法は,クラス嗜好レベルに基づいて学習パラメータを動的に調整し,属性間の公平性を促進させる。
論文 参考訳(メタデータ) (2024-09-14T02:56:07Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。