論文の概要: Skin Cancer Machine Learning Model Tone Bias
- arxiv url: http://arxiv.org/abs/2410.06385v1
- Date: Tue, 8 Oct 2024 21:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 05:59:12.520177
- Title: Skin Cancer Machine Learning Model Tone Bias
- Title(参考訳): 皮膚がん機械学習モデルトーンバイアス
- Authors: James Pope, Md Hassanuzzaman, Mingmar Sherpa, Omar Emara, Ayush Joshi, Nirmala Adhikari,
- Abstract要約: 多くのオープンソースの皮膚がん画像データセットは、より軽い皮膚のトーンを持つ国で実施された臨床試験の結果である。
このトーン不均衡のため、機械学習モデルは、より軽いスキントーンのための皮膚がんを検出するのによく機能する。
これらのモデルのトーンバイアスは、公正な懸念をもたらし、人工知能の健康分野に対する公衆の信頼を低下させる可能性がある。
- 参考スコア(独自算出の注目度): 1.1545092788508224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Many open-source skin cancer image datasets are the result of clinical trials conducted in countries with lighter skin tones. Due to this tone imbalance, machine learning models derived from these datasets can perform well at detecting skin cancer for lighter skin tones. Any tone bias in these models could introduce fairness concerns and reduce public trust in the artificial intelligence health field. Methods: We examine a subset of images from the International Skin Imaging Collaboration (ISIC) archive that provide tone information. The subset has a significant tone imbalance. These imbalances could explain a model's tone bias. To address this, we train models using the imbalanced dataset and a balanced dataset to compare against. The datasets are used to train a deep convolutional neural network model to classify the images as malignant or benign. We then evaluate the models' disparate impact, based on selection rate, relative to dark or light skin tone. Results: Using the imbalanced dataset, we found that the model is significantly better at detecting malignant images in lighter tone resulting in a disparate impact of 0.577. Using the balanced dataset, we found that the model is also significantly better at detecting malignant images in lighter versus darker tones with a disparate impact of 0.684. Using the imbalanced or balanced dataset to train the model still results in a disparate impact well below the standard threshold of 0.80 which suggests the model is biased with respect to skin tone. Conclusion: The results show that typical skin cancer machine learning models can be tone biased. These results provide evidence that diagnosis or tone imbalance is not the cause of the bias. Other techniques will be necessary to identify and address the bias in these models, an area of future investigation.
- Abstract(参考訳): 背景:多くのオープンソースの皮膚がん画像データセットは、より軽い皮膚のトーンを持つ国で実施された臨床試験の結果である。
このトーン不均衡のため、これらのデータセットから派生した機械学習モデルは、より軽いスキントーンのための皮膚がんを検出するのによく機能する。
これらのモデルのトーンバイアスは、公正な懸念をもたらし、人工知能の健康分野に対する公衆の信頼を低下させる可能性がある。
方法: トーン情報を提供するISIC(International Skin Imaging Collaboration)アーカイブの画像のサブセットについて検討する。
サブセットには大きなトーンの不均衡がある。
これらの不均衡はモデルのトーンバイアスを説明できる。
これを解決するために、バランスの取れないデータセットとバランスのとれたデータセットを使用してモデルをトレーニングし、比較します。
データセットは、画像を悪性または良性として分類するために、深層畳み込みニューラルネットワークモデルをトレーニングするために使用される。
次に、選択率に基づいて、暗い肌や明るい肌のトーンに対するモデルの異なる影響を評価した。
結果: 不均衡データセットを用いて, より軽い音色で悪性画像を検出し, 0.577の異なる影響が認められた。
バランスの取れたデータセットを用いて、このモデルがより軽いと暗いトーンの悪性画像を検出し、0.684の異なる衝撃で検出できることがわかった。
モデルのトレーニングに不均衡あるいはバランスの取れたデータセットを使用することで、モデルが皮膚のトーンに対して偏りがあることを示唆する0.80の標準しきい値よりもはるかに低い差が生じる。
結論: 結果は、典型的な皮膚がん機械学習モデルに偏りがあることを示している。
これらの結果は、診断やトーンの不均衡がバイアスの原因ではないことを示す。
これらのモデルにおけるバイアスを識別し、対処するためには、他の技術が必要であり、これは将来の調査の分野である。
関連論文リスト
- Are generative models fair? A study of racial bias in dermatological image generation [15.812312064457865]
臨床皮膚学における生成モデルの妥当性を,人種的偏見から評価した。
Fitzpatrick17kデータセットを用いて、人種的バイアスがこれらのモデルの表現と性能にどのように影響するかを調べる。
論文 参考訳(メタデータ) (2025-01-20T21:24:15Z) - An analysis of data variation and bias in image-based dermatological datasets for machine learning classification [2.039829968340841]
臨床皮膚学では、分類モデルはRGB画像のみを入力として、患者の皮膚の悪性病変を検出することができる。
学習に基づくほとんどの手法では、トレーニングにおいて皮膚科のデータセットから取得したデータを用いており、これは金の基準によって大きく検証されている。
本研究の目的は,皮膚内視鏡検査と臨床検査のギャップを評価し,データセットの変動がトレーニングに与える影響を理解することである。
論文 参考訳(メタデータ) (2025-01-15T17:18:46Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Evaluating Machine Learning-based Skin Cancer Diagnosis [0.0]
この研究は、MobileNetベースのモデルとカスタムCNNモデルの2つの畳み込みニューラルネットワークアーキテクチャを評価する。
どちらのモデルも、皮膚病変を7つのカテゴリに分類し、危険病変と良性病変を区別する能力について評価されている。
この研究は、モデルが説明可能性を示す一方で、異なる肌のトーンの公平性を確保するためにさらなる開発が必要であると結論付けている。
論文 参考訳(メタデータ) (2024-09-04T02:44:48Z) - DDI-CoCo: A Dataset For Understanding The Effect Of Color Contrast In
Machine-Assisted Skin Disease Detection [51.92255321684027]
皮膚のトーンと色差効果の相互作用について検討し,色差が皮膚のトーン間のモデル性能バイアスの新たな原因となる可能性が示唆された。
我々の研究は皮膚疾患の検出を改善するために皮膚科のAIに補完的な角度を提供する。
論文 参考訳(メタデータ) (2024-01-24T07:45:24Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Analysis of skin lesion images with deep learning [0.0]
内視鏡画像の分類における美術の現状を評価します。
ImageNetデータセットに事前トレーニングされた様々なディープニューラルネットワークアーキテクチャは、組み合わせたトレーニングデータセットに適合する。
皮膚病変の8クラスの検出のためのこれらのモデルの性能と適用性を検討する。
論文 参考訳(メタデータ) (2021-01-11T10:58:36Z) - Improving Lesion Detection by exploring bias on Skin Lesion dataset [0.0]
ISIC Archiveは、ディープラーニングベースのツールをベンチマークするのに最も使用される皮膚病変ソースの1つである。
深層学習モデルは、入力データに臨床的に意味のある情報を持たずに皮膚病変画像を分類することができる。
長方形境界箱型マスクの代わりに形状保存マスクを生成する実験を行った。
論文 参考訳(メタデータ) (2020-10-04T05:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。