論文の概要: Are generative models fair? A study of racial bias in dermatological image generation
- arxiv url: http://arxiv.org/abs/2501.11752v1
- Date: Mon, 20 Jan 2025 21:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:28.255966
- Title: Are generative models fair? A study of racial bias in dermatological image generation
- Title(参考訳): 生成モデルは公正か? : 皮膚画像生成における人種的偏見に関する研究
- Authors: Miguel López-Pérez, Søren Hauberg, Aasa Feragen,
- Abstract要約: 変分オートエンコーダ(VAE)のような生成モデルは、医療アプリケーションでますます使われている。
臨床皮膚学における生成モデルの妥当性を,人種的偏見から評価した。
- 参考スコア(独自算出の注目度): 15.812312064457865
- License:
- Abstract: Racial bias in medicine, particularly in dermatology, presents significant ethical and clinical challenges. It often results from the underrepresentation of darker skin tones in training datasets for machine learning models. While efforts to address bias in dermatology have focused on improving dataset diversity and mitigating disparities in discriminative models, the impact of racial bias on generative models remains underexplored. Generative models, such as Variational Autoencoders (VAEs), are increasingly used in healthcare applications, yet their fairness across diverse skin tones is currently not well understood. In this study, we evaluate the fairness of generative models in clinical dermatology with respect to racial bias. For this purpose, we first train a VAE with a perceptual loss to generate and reconstruct high-quality skin images across different skin tones. We utilize the Fitzpatrick17k dataset to examine how racial bias influences the representation and performance of these models. Our findings indicate that the VAE is influenced by the diversity of skin tones in the training dataset, with better performance observed for lighter skin tones. Additionally, the uncertainty estimates produced by the VAE are ineffective in assessing the model's fairness. These results highlight the need for improved uncertainty quantification mechanisms to detect and address racial bias in generative models for trustworthy healthcare technologies.
- Abstract(参考訳): 医学、特に皮膚科学における人種バイアスは、重要な倫理的および臨床的課題を提示する。
これはしばしば、機械学習モデルのデータセットをトレーニングする際の、より暗い肌のトーンの表現不足から生じる。
皮膚科における偏見に対処する努力は、データセットの多様性の改善と差別モデルにおける格差軽減に重点を置いているが、人種的偏見が生成モデルに与える影響は未解明のままである。
変分オートエンコーダ(VAE)のような生成モデルは、医療アプリケーションでの利用が増えているが、様々なスキントーンにまたがる公平さは、現時点ではよく理解されていない。
本研究では, 臨床皮膚学における生成モデルの妥当性を, 人種的偏見に関して評価した。
この目的のために,まず知覚障害のあるVAEを訓練し,異なる肌色で高品質な皮膚画像を生成し,再構成する。
Fitzpatrick17kデータセットを用いて、人種的バイアスがこれらのモデルの表現と性能にどのように影響するかを調べる。
以上の結果から,VAEはトレーニングデータセットの皮膚色調の多様性に影響され,皮膚色調が軽くなる傾向が示唆された。
さらに、VAEが生み出す不確実性推定は、モデルの公平性を評価するのに効果がない。
これらの結果は、信頼できる医療技術のための生成モデルにおいて、人種バイアスを検出し、対処するための不確実性定量化メカニズムの改善の必要性を強調している。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Skin Cancer Machine Learning Model Tone Bias [1.1545092788508224]
多くのオープンソースの皮膚がん画像データセットは、より軽い皮膚のトーンを持つ国で実施された臨床試験の結果である。
このトーン不均衡のため、機械学習モデルは、より軽いスキントーンのための皮膚がんを検出するのによく機能する。
これらのモデルのトーンバイアスは、公正な懸念をもたらし、人工知能の健康分野に対する公衆の信頼を低下させる可能性がある。
論文 参考訳(メタデータ) (2024-10-08T21:33:02Z) - Evaluating Machine Learning-based Skin Cancer Diagnosis [0.0]
この研究は、MobileNetベースのモデルとカスタムCNNモデルの2つの畳み込みニューラルネットワークアーキテクチャを評価する。
どちらのモデルも、皮膚病変を7つのカテゴリに分類し、危険病変と良性病変を区別する能力について評価されている。
この研究は、モデルが説明可能性を示す一方で、異なる肌のトーンの公平性を確保するためにさらなる開発が必要であると結論付けている。
論文 参考訳(メタデータ) (2024-09-04T02:44:48Z) - DDI-CoCo: A Dataset For Understanding The Effect Of Color Contrast In
Machine-Assisted Skin Disease Detection [51.92255321684027]
皮膚のトーンと色差効果の相互作用について検討し,色差が皮膚のトーン間のモデル性能バイアスの新たな原因となる可能性が示唆された。
我々の研究は皮膚疾患の検出を改善するために皮膚科のAIに補完的な角度を提供する。
論文 参考訳(メタデータ) (2024-01-24T07:45:24Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Assessing the Generalizability of Deep Neural Networks-Based Models for
Black Skin Lesions [5.799408310835583]
メラノーマは黒人に多く見られ、しばしば手のひら、足首、爪などの灰色領域に影響を及ぼす。
ディープニューラルネットワークは、臨床ケアや皮膚がんの診断を改善する大きな可能性を示している。
本研究では,黒色個体でよく見られる皮膚病変領域から抽出した皮膚病変画像について,教師付きおよび自己教師型モデルの評価を行った。
論文 参考訳(メタデータ) (2023-09-30T22:36:51Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - FairDisCo: Fairer AI in Dermatology via Disentanglement Contrastive
Learning [11.883809920936619]
本研究では,FairDisCoを提案する。
FairDisCoを3つのフェアネス手法、すなわち、再サンプリング、再重み付け、属性認識と比較する。
DPMとEOMの2つのフェアネス指標を多クラスに適用し,皮膚病変分類における皮膚型バイアスを強調した。
論文 参考訳(メタデータ) (2022-08-22T01:54:23Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - EdgeMixup: Improving Fairness for Skin Disease Classification and
Segmentation [9.750368551427494]
皮膚病変は、広範囲の感染症やその他の病気の早期の指標である可能性がある。
深層学習(DL)モデルを用いた皮膚病変の診断は,プレスクリーニング患者を支援できる可能性が高い。
これらのモデルは、トレーニングデータに固有のバイアスを学習することが多く、ライトやダークスキンのトーンを持つ人の診断において、パフォーマンスのギャップを生じさせる可能性がある。
論文 参考訳(メタデータ) (2022-02-28T15:33:31Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。