論文の概要: The Impact of Skin Tone Label Granularity on the Performance and Fairness of AI Based Dermatology Image Classification Models
- arxiv url: http://arxiv.org/abs/2509.11184v1
- Date: Sun, 14 Sep 2025 09:30:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.965233
- Title: The Impact of Skin Tone Label Granularity on the Performance and Fairness of AI Based Dermatology Image Classification Models
- Title(参考訳): AIに基づく皮膚画像分類モデルの性能と公正性に及ぼす皮膚音ラベル粒度の影響
- Authors: Partha Shah, Durva Sankhe, Maariyah Rashid, Zakaa Khaled, Esther Puyol-Antón, Tiarna Lee, Maram Alqarni, Sweta Rai, Andrew P. King,
- Abstract要約: FST(Fitzpatrick Skin Tone)尺度は、より軽い肌の被験者に対する皮膚のトーンカテゴリーの粒度が高いと批判されている。
本稿では,FSTスケールの粒度のAI分類モデルに対する影響(性能とバイアス)について検討する。
- 参考スコア(独自算出の注目度): 0.8590210863443347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) models to automatically classify skin lesions from dermatology images have shown promising performance but also susceptibility to bias by skin tone. The most common way of representing skin tone information is the Fitzpatrick Skin Tone (FST) scale. The FST scale has been criticised for having greater granularity in its skin tone categories for lighter-skinned subjects. This paper conducts an investigation of the impact (on performance and bias) on AI classification models of granularity in the FST scale. By training multiple AI models to classify benign vs. malignant lesions using FST-specific data of differing granularity, we show that: (i) when training models using FST-specific data based on three groups (FST 1/2, 3/4 and 5/6), performance is generally better for models trained on FST-specific data compared to a general model trained on FST-balanced data; (ii) reducing the granularity of FST scale information (from 1/2 and 3/4 to 1/2/3/4) can have a detrimental effect on performance. Our results highlight the importance of the granularity of FST groups when training lesion classification models. Given the question marks over possible human biases in the choice of categories in the FST scale, this paper provides evidence for a move away from the FST scale in fair AI research and a transition to an alternative scale that better represents the diversity of human skin tones.
- Abstract(参考訳): 皮膚科画像から皮膚病変を自動分類する人工知能(AI)モデルは、有望な性能を示すだけでなく、皮膚のトーンによるバイアスへの感受性も示している。
皮膚のトーン情報を表す最も一般的な方法は、フィッツパトリック・スキントーン(FST)尺度である。
FST尺度は、より軽い肌の被験者に対する皮膚のトーンカテゴリーにおいてより粒度が高いと批判されている。
本稿では,FSTスケールの粒度のAI分類モデルに対する影響(性能とバイアス)について検討する。
異なる粒度のFST固有のデータを用いて、良性と悪性の病変を分類するために複数のAIモデルを訓練することにより、以下のことが示される。
i) 3つのグループ(FST 1/2, 3/4, 5/6)に基づくFST固有データを用いたトレーニングモデルでは、FSTバランスデータでトレーニングした一般的なモデルと比較して、FST固有データでトレーニングしたモデルの方が、一般的にはパフォーマンスがよい。
(II)FSTスケール情報の粒度(1/2,3/4から1/2/3/4)の低減は、性能に有害な影響を及ぼす。
本研究は, 訓練病変分類モデルにおけるFST群の粒度の重要性を強調した。
本稿では、FST尺度におけるカテゴリー選択における人間の偏見に関する疑問点を考慮し、公正なAI研究におけるFST尺度からの脱却の証拠と、人間の肌の色調の多様性をよりよく表す代替尺度への移行について述べる。
関連論文リスト
- Small-to-Large Generalization: Data Influences Models Consistently Across Scale [76.87199303408161]
小規模および大規模言語モデル予測(一般的には)は、トレーニングデータの選択に非常に相関している。
また、データ属性とデータセット選択という2つの下流プロキシモデルアプリケーションにおいて、プロキシスケールが有効性にどのように影響するかを特徴付ける。
論文 参考訳(メタデータ) (2025-05-22T05:50:19Z) - Consensus and Subjectivity of Skin Tone Annotation for ML Fairness [1.0728297108232812]
Monk Skin Tone Examples (MST-E)データセットをリリースしました。
本研究は, 環境条件の厳しい条件下であっても, MSTスケールの専門家と整合して, 皮膚のトーンを確実にアノテートできることを示唆する。
フェアネス研究では,各画像に対して多彩なアノテータと高い複製数を使用することを推奨する。
論文 参考訳(メタデータ) (2023-05-16T00:03:09Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - FairDisCo: Fairer AI in Dermatology via Disentanglement Contrastive
Learning [11.883809920936619]
本研究では,FairDisCoを提案する。
FairDisCoを3つのフェアネス手法、すなわち、再サンプリング、再重み付け、属性認識と比較する。
DPMとEOMの2つのフェアネス指標を多クラスに適用し,皮膚病変分類における皮膚型バイアスを強調した。
論文 参考訳(メタデータ) (2022-08-22T01:54:23Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Reliability and Validity of Image-Based and Self-Reported Skin Phenotype
Metrics [0.0]
生体評価のための肌色測定は, 客観的, 特徴, 制御源から行う必要がある。
その結果,生体評価のための肌色測定は,客観的,特徴的,制御された情報源から行う必要があることがわかった。
論文 参考訳(メタデータ) (2021-06-18T16:12:24Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z) - Alleviating the Incompatibility between Cross Entropy Loss and Episode
Training for Few-shot Skin Disease Classification [76.89093364969253]
そこで本研究では,皮膚疾患の診断にFew-Shot Learningを応用し,トレーニングサンプル問題の極端な不足に対処することを提案する。
本稿では, エピソード学習において, クロスエントロピー(CE)よりも優れたクエリ-相対的損失(QR)を提案する。
さらに,新しい適応型ハードマージン戦略により,提案したQR損失をさらに強化する。
論文 参考訳(メタデータ) (2020-04-21T00:57:11Z) - Adversarial Feature Hallucination Networks for Few-Shot Learning [84.31660118264514]
Adversarial Feature Hallucination Networks (AFHN) は条件付き Wasserstein Generative Adversarial Network (cWGAN) に基づいている。
合成された特徴の識別性と多様性を促進するために、2つの新規レギュレータがAFHNに組み込まれている。
論文 参考訳(メタデータ) (2020-03-30T02:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。