論文の概要: Evaluating the Fairness of Neural Collapse in Medical Image Classification
- arxiv url: http://arxiv.org/abs/2407.05843v1
- Date: Mon, 8 Jul 2024 11:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:00:10.791621
- Title: Evaluating the Fairness of Neural Collapse in Medical Image Classification
- Title(参考訳): 医用画像分類における神経崩壊の公平性の評価
- Authors: Kaouther Mouheb, Marawan Elbatel, Stefan Klein, Esther E. Bron,
- Abstract要約: ニューラル・コラプス(NC)は、最先端のディープラーニングモデルの一般化を改善する可能性を示している。
本研究では,NCのレンズによる深層学習の公平性について検討した。
偏りのある設定では、NCは全てのサブグループでF1スコアが大幅に低下する可能性がある。
- 参考スコア(独自算出の注目度): 0.3999851878220877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved impressive performance across various medical imaging tasks. However, its inherent bias against specific groups hinders its clinical applicability in equitable healthcare systems. A recently discovered phenomenon, Neural Collapse (NC), has shown potential in improving the generalization of state-of-the-art deep learning models. Nonetheless, its implications on bias in medical imaging remain unexplored. Our study investigates deep learning fairness through the lens of NC. We analyze the training dynamics of models as they approach NC when training using biased datasets, and examine the subsequent impact on test performance, specifically focusing on label bias. We find that biased training initially results in different NC configurations across subgroups, before converging to a final NC solution by memorizing all data samples. Through extensive experiments on three medical imaging datasets -- PAPILA, HAM10000, and CheXpert -- we find that in biased settings, NC can lead to a significant drop in F1 score across all subgroups. Our code is available at https://gitlab.com/radiology/neuro/neural-collapse-fairness
- Abstract(参考訳): 深層学習は、様々な医療画像タスクで素晴らしいパフォーマンスを達成した。
しかし、特定のグループに対する固有の偏見は、公平な医療システムにおける臨床応用を妨げている。
最近発見された現象であるNeural Collapse (NC)は、最先端のディープラーニングモデルの一般化を改善する可能性を示している。
それでも、医療画像におけるバイアスの影響は未解明のままである。
本研究では,NCのレンズによる深層学習の公平性について検討した。
バイアス付きデータセットを用いたトレーニングにおいて、NCにアプローチするモデルのトレーニングダイナミクスを分析し、特にラベルバイアスに着目して、その後のテストパフォーマンスへの影響について検討する。
偏りのあるトレーニングは最初、すべてのデータサンプルを記憶することで最終的なNCソリューションに収束する前に、サブグループ間で異なるNC構成をもたらす。
PAPILA、HAM10000、CheXpertの3つの医療画像データセットに関する広範な実験により、偏りのある設定では、NCはすべてのサブグループでF1スコアを著しく低下させる可能性があることが判明した。
私たちのコードはhttps://gitlab.com/radiology/neuro/neural-collapse-fairnessで利用可能です。
関連論文リスト
- Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - A systematic study of race and sex bias in CNN-based cardiac MR
segmentation [6.507372382471608]
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2022-09-04T14:32:00Z) - White Matter Tracts are Point Clouds: Neuropsychological Score
Prediction and Critical Region Localization via Geometric Deep Learning [68.5548609642999]
ホワイトマタートラクトデータを用いた神経心理学的スコア予測のためのディープラーニングに基づくフレームワークを提案する。
各点の微細構造測定を行う点雲として, arcuate fasciculus (AF) を表現した。
Paired-Siamese Lossでは,連続した神経心理学的スコアの違いに関する情報を利用した予測性能を改善した。
論文 参考訳(メタデータ) (2022-07-06T02:03:28Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - FedMed-GAN: Federated Domain Translation on Unsupervised Cross-Modality
Brain Image Synthesis [55.939957482776194]
我々は、教師なし脳画像合成におけるフェデレートドメイン翻訳のための新しいベンチマーク(FedMed-GAN)を提案する。
FedMed-GANは発電機の性能を犠牲にすることなくモード崩壊を緩和する。
FedMed-GANと他の集中型手法を比較するための総合的な評価を提供する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z) - Latent Adversarial Debiasing: Mitigating Collider Bias in Deep Neural
Networks [0.0]
衝突型バイアスは、ニューラルネットワークが対処できないようなサンプル選択バイアスの有害な形態である。
本研究は,潜在性逆境障害を用いたバイアス非結合トレーニングデータを生成することにより,この対策を緩和できることを示す。
論文 参考訳(メタデータ) (2020-11-19T10:53:45Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - "Name that manufacturer". Relating image acquisition bias with task
complexity when training deep learning models: experiments on head CT [0.0]
我々は、データセットにおけるスキャナーメーカーの分布がディープラーニングモデルの全体的なバイアスにどのように貢献するかを分析する。
我々は、CNNが画像スキャナーメーカーを識別し、このバイアスがモデルの性能に大きな影響を与えることを実証した。
論文 参考訳(メタデータ) (2020-08-19T16:05:58Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Ensemble Deep Learning on Large, Mixed-Site fMRI Datasets in Autism and
Other Tasks [0.1160208922584163]
我々は、これまでコンパイルされた最大のマルチソース機能的MRI(fMRI)コネクトロミックデータセットを備えた畳み込みニューラルネットワーク(CNN)を訓練する。
ASDとTDの制御を区別するディープラーニングモデルは、時間的および小脳の接続に大きく焦点を絞っている。
論文 参考訳(メタデータ) (2020-02-14T17:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。