論文の概要: Large-Scale Dataset and Benchmark for Skin Tone Classification in the Wild
- arxiv url: http://arxiv.org/abs/2603.02475v1
- Date: Mon, 02 Mar 2026 23:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.578633
- Title: Large-Scale Dataset and Benchmark for Skin Tone Classification in the Wild
- Title(参考訳): 野生における皮膚音分類のための大規模データセットとベンチマーク
- Authors: Vitor Pereira Matias, Márcus Vinícius Lobo Costa, João Batista Neto, Tiago Novello de Brito,
- Abstract要約: 皮膚のトーンフェアネスに関する包括的枠組みを提案する。
まず,3,564人の42,313画像からなる大規模オープンアクセスデータセットSTWを紹介する。
第2に、クラシックコンピュータビジョン(SkinToneCCV)とディープラーニングの両方のアプローチをベンチマークする。
第3に、ドメイン外データに対する最先端の一般化を実現する微調整ViTであるSkinToneNetを提案する。
- 参考スコア(独自算出の注目度): 0.6416429054645991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models often inherit biases from their training data. While fairness across gender and ethnicity is well-studied, fine-grained skin tone analysis remains a challenge due to the lack of granular, annotated datasets. Existing methods often rely on the medical 6-tone Fitzpatrick scale, which lacks visual representativeness, or use small, private datasets that prevent reproducibility, or often rely on classic computer vision pipelines, with a few using deep learning. They overlook issues like train-test leakage and dataset imbalance, and are limited by small or unavailable datasets. In this work, we present a comprehensive framework for skin tone fairness. First, we introduce the STW, a large-scale, open-access dataset comprising 42,313 images from 3,564 individuals, labeled using the 10-tone MST scale. Second, we benchmark both Classic Computer Vision (SkinToneCCV) and Deep Learning approaches, demonstrating that classic models provide near-random results, while deep learning reaches nearly annotator accuracy. Finally, we propose SkinToneNet, a fine-tuned ViT that achieves state-of-the-art generalization on out-of-domain data, which enables reliable fairness auditing of public datasets like CelebA and VGGFace2. This work provides state-of-the-art results in skin tone classification and fairness assessment. Code and data available soon
- Abstract(参考訳): ディープラーニングモデルは、トレーニングデータからバイアスを継承することが多い。
性別と民族間の公平さはよく研究されているが、粒度の細かいスキントーン分析は、粒度の細かい注釈付きデータセットが欠如しているため、依然として課題である。
既存の方法は、視覚的な代表性に欠ける6トンのFitzpatrickスケール、再現性を妨げる小さなプライベートデータセット、あるいは古典的なコンピュータビジョンパイプラインに依存することが多い。
それらは、トレインテストのリークやデータセットの不均衡といった問題を見落とし、小規模または非利用可能なデータセットによって制限される。
本研究では,スキントーンフェアネスの包括的枠組みを提案する。
まず,3,564人の42,313画像からなる大規模オープンアクセスデータセットSTWについて,10音MST尺度を用いてラベル付けした。
第2に、古典的コンピュータビジョン(SkinToneCCV)とディープラーニングのアプローチをベンチマークし、古典的モデルがほぼランダムな結果を提供するのに対し、ディープラーニングはほぼアノテータの精度に達することを示した。
最後に,ドメイン外データに対する最先端の一般化を実現し,CelebAやVGGFace2といった公開データセットの信頼性の高い公平性監査を可能にする,微調整型ViTであるSkinToneNetを提案する。
この研究は、皮膚のトーン分類と公正度評価の最先端の結果を提供する。
コードとデータが間もなく利用可能になる
関連論文リスト
- Long-Tailed Recognition via Information-Preservable Two-Stage Learning [6.2471093754692815]
不均衡(または長い尾)は多くの実世界のデータ分布の性質である。
本稿では,この傾向を緩和する新たな2段階学習手法を提案する。
提案手法は,様々なロングテールベンチマークデータセットにまたがる最先端性能を実現する。
論文 参考訳(メタデータ) (2025-10-09T21:49:12Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - On Hate Scaling Laws For Data-Swamps [14.891493485229251]
HCR(Hate Content Rate)測定値で測定すると,データセットにおけるヘイトフルコンテンツの存在が約12%増加した。
スケールが大きくなるにつれて、他の7つの攻撃的クラスに比べて、人間の顔の画像と人間のクラスを関連付ける傾向が半減した。
黒人女性のカテゴリーでは、モデルを犯罪者のクラスに関連付ける傾向は2倍になり、黒人男性の顔のクインタップリングは4倍になった。
論文 参考訳(メタデータ) (2023-06-22T18:00:17Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Color Invariant Skin Segmentation [17.501659517108884]
本稿では,カラー情報に頼らずに画像中の皮膚を自動的に検出する問題に対処する。
この研究の主な動機は、皮膚のトーン全体にわたって一貫性のある結果を達成することである。
我々はそのような情報がない場合によく機能する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-21T05:07:21Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。