論文の概要: PatchAlign:Fair and Accurate Skin Disease Image Classification by Alignment with Clinical Labels
- arxiv url: http://arxiv.org/abs/2409.04975v1
- Date: Sun, 8 Sep 2024 05:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 19:50:12.216364
- Title: PatchAlign:Fair and Accurate Skin Disease Image Classification by Alignment with Clinical Labels
- Title(参考訳): PatchAlign:臨床検査による皮膚疾患の画像分類
- Authors: Aayushman, Hemanth Gaddey, Vidhi Mittal, Manisha Chawla, Gagan Raj Gupta,
- Abstract要約: 我々は,皮膚条件画像の分類精度と公平性を高めるために,新しいアプローチであるPatchAlignを導入する。
PatchAlignは、グラフ最適トランスポート(GOT)ロスを正規化子として、クロスドメインアライメントを実行する。
皮膚の音色間の正の正の比率の公平性は一貫して向上する。
- 参考スコア(独自算出の注目度): 0.12233362977312943
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models have achieved great success in automating skin lesion diagnosis. However, the ethnic disparity in these models' predictions needs to be addressed before deploying them. We introduce a novel approach, PatchAlign, to enhance skin condition image classification accuracy and fairness by aligning with clinical text representations of skin conditions. PatchAlign uses Graph Optimal Transport (GOT) Loss as a regularizer to perform cross-domain alignment. The representations obtained are robust and generalize well across skin tones, even with limited training samples. To reduce the effect of noise and artifacts in clinical dermatology images, we propose a learnable Masked Graph Optimal Transport for cross-domain alignment that further improves fairness metrics. We compare our model to the state-of-the-art FairDisCo on two skin lesion datasets with different skin types: Fitzpatrick17k and Diverse Dermatology Images (DDI). PatchAlign enhances the accuracy of skin condition image classification by 2.8% (in-domain) and 6.2% (out-domain) on Fitzpatrick17k, and 4.2% (in-domain) on DDI compared to FairDisCo. Additionally, it consistently improves the fairness of true positive rates across skin tones. The source code for the implementation is available at the following GitHub repository: https://github.com/aayushmanace/PatchAlign24, enabling easy reproduction and further experimentation.
- Abstract(参考訳): 深層学習モデルは皮膚病変の診断を自動化することに成功している。
しかしながら、これらのモデルの予測における民族的格差は、それらを展開する前に対処する必要がある。
我々は,皮膚条件のテキスト表現と整合して,皮膚条件画像の分類精度と公平性を向上するための新しいアプローチであるPatchAlignを導入する。
PatchAlignは、グラフ最適トランスポート(GOT)ロスを正規化子として、クロスドメインアライメントを実行する。
得られた表現は、限られたトレーニングサンプルであっても、皮膚のトーンにわたって頑健で一般化されている。
臨床皮膚科画像におけるノイズやアーティファクトの影響を低減するため,領域横断アライメントのための学習可能なMasked Graph Optimal Transportを提案する。
Fitzpatrick17kとDiverse Dermatology Images(DDI)の2種類の皮膚病変データセットを比較した。
PatchAlignはFitzpatrick17k上の2.8%(ドメイン内)と6.2%(ドメイン外)、そしてFairDisCoと比較してDDI上の4.2%(ドメイン内)の皮膚条件画像分類の精度を高める。
さらに、皮膚の音色にまたがる真の正の比率の公平さを一貫して改善する。
実装のソースコードは以下のGitHubリポジトリで入手できる。 https://github.com/aayushmanace/PatchAlign24。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Lesion Elevation Prediction from Skin Images Improves Diagnosis [18.536449533612235]
深層学習モデルを用いて2次元皮膚病変画像から画像レベルの病変標高ラベルを予測する。
以上の結果より,AUROCは6.29%,AUROCは2.69%に改善した。
論文 参考訳(メタデータ) (2024-08-05T19:19:29Z) - Enhancing Skin Disease Classification Leveraging Transformer-based Deep Learning Architectures and Explainable AI [2.3149142745203326]
皮膚疾患は世界の人口の3分の1以上に影響を与えるが、その影響は過小評価されることが多い。
深層学習技術は皮膚疾患の特定を含む様々なタスクに多くの可能性を示してきた。
この研究では、31のクラスを持つ皮膚疾患データセットを使用し、Vision Transformers、Swin Transformers、DivoV2のすべてのバージョンと比較した。
論文 参考訳(メタデータ) (2024-07-20T05:38:00Z) - DDI-CoCo: A Dataset For Understanding The Effect Of Color Contrast In
Machine-Assisted Skin Disease Detection [51.92255321684027]
皮膚のトーンと色差効果の相互作用について検討し,色差が皮膚のトーン間のモデル性能バイアスの新たな原因となる可能性が示唆された。
我々の研究は皮膚疾患の検出を改善するために皮膚科のAIに補完的な角度を提供する。
論文 参考訳(メタデータ) (2024-01-24T07:45:24Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - FEDD -- Fair, Efficient, and Diverse Diffusion-based Lesion Segmentation
and Malignancy Classification [2.076716889858164]
皮膚病変の分類と悪性度分類のためのフェア,エフェクト,ディバース拡散に基づくフレームワークを提案する。
5%,10%,15%,20%のラベル付き試料を用いて,0.18,0.13,0.06,0.07の相互結合の改善を実現した。
Diverse Dermatology Imagesの10%で訓練されたFedは、悪性度分類の精度が最先端と比較して81%、14%高いことを示した。
論文 参考訳(メタデータ) (2023-07-21T15:42:01Z) - FairDisCo: Fairer AI in Dermatology via Disentanglement Contrastive
Learning [11.883809920936619]
本研究では,FairDisCoを提案する。
FairDisCoを3つのフェアネス手法、すなわち、再サンプリング、再重み付け、属性認識と比較する。
DPMとEOMの2つのフェアネス指標を多クラスに適用し,皮膚病変分類における皮膚型バイアスを強調した。
論文 参考訳(メタデータ) (2022-08-22T01:54:23Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - EdgeMixup: Improving Fairness for Skin Disease Classification and
Segmentation [9.750368551427494]
皮膚病変は、広範囲の感染症やその他の病気の早期の指標である可能性がある。
深層学習(DL)モデルを用いた皮膚病変の診断は,プレスクリーニング患者を支援できる可能性が高い。
これらのモデルは、トレーニングデータに固有のバイアスを学習することが多く、ライトやダークスキンのトーンを持つ人の診断において、パフォーマンスのギャップを生じさせる可能性がある。
論文 参考訳(メタデータ) (2022-02-28T15:33:31Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。