論文の概要: Evaluating the Fairness of Deep Learning Uncertainty Estimates in
Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2303.03242v1
- Date: Mon, 6 Mar 2023 16:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:30:19.226383
- Title: Evaluating the Fairness of Deep Learning Uncertainty Estimates in
Medical Image Analysis
- Title(参考訳): 医用画像解析における深層学習の不確かさの評価
- Authors: Raghav Mehta, Changjian Shui, Tal Arbel
- Abstract要約: 深層学習(DL)モデルは多くの医療画像解析タスクで大きな成功を収めている。
しかし、結果として得られたモデルを実際の臨床状況に展開するには、異なるサブ集団間での堅牢性と公平性が必要である。
近年の研究では、人口統計学的サブグループにまたがるDLモデルに有意なバイアスが見られ、モデルに公平性が欠如していることが示されている。
- 参考スコア(独自算出の注目度): 3.5536769591744557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep learning (DL) models have shown great success in many medical
image analysis tasks, deployment of the resulting models into real clinical
contexts requires: (1) that they exhibit robustness and fairness across
different sub-populations, and (2) that the confidence in DL model predictions
be accurately expressed in the form of uncertainties. Unfortunately, recent
studies have indeed shown significant biases in DL models across demographic
subgroups (e.g., race, sex, age) in the context of medical image analysis,
indicating a lack of fairness in the models. Although several methods have been
proposed in the ML literature to mitigate a lack of fairness in DL models, they
focus entirely on the absolute performance between groups without considering
their effect on uncertainty estimation. In this work, we present the first
exploration of the effect of popular fairness models on overcoming biases
across subgroups in medical image analysis in terms of bottom-line performance,
and their effects on uncertainty quantification. We perform extensive
experiments on three different clinically relevant tasks: (i) skin lesion
classification, (ii) brain tumour segmentation, and (iii) Alzheimer's disease
clinical score regression. Our results indicate that popular ML methods, such
as data-balancing and distributionally robust optimization, succeed in
mitigating fairness issues in terms of the model performances for some of the
tasks. However, this can come at the cost of poor uncertainty estimates
associated with the model predictions. This tradeoff must be mitigated if
fairness models are to be adopted in medical image analysis.
- Abstract(参考訳): 深層学習モデルは多くの医用画像解析タスクで大きな成功を収めているが、その結果得られたモデルの実際の臨床コンテキストへの展開には、(1)異なるサブ人口にまたがる堅牢性と公平性を示し、(2)dlモデル予測の信頼性を不確実性の形で正確に表現することが必要である。
残念なことに、最近の研究では、人口統計学的サブグループ(例えば、人種、性別、年齢)でDLモデルに顕著なバイアスが見られ、そのモデルに公平性が欠如していることが示されている。
ML文献では、DLモデルの公平性の欠如を緩和するためにいくつかの方法が提案されているが、不確実性推定の影響を考慮せずに、グループ間の絶対的な性能に完全に焦点を当てている。
本稿では,医療画像解析における下位群間のバイアスの克服と不確実性定量化への効果について,人気のフェアネスモデルが与える影響について,まず最初に検討する。
3つの異なる臨床的タスクについて広範な実験を行う。
(i)皮膚病変分類
(ii)脳腫瘍の分画、及び
(3)アルツハイマー病の臨床成績の回帰。
この結果から,データ分散や分散ロバストな最適化といった一般的なML手法が,タスクのモデル性能の観点から公平性の問題を軽減することに成功した。
しかし、これはモデル予測に関連する不確実性推定のコストがかかる可能性がある。
このトレードオフは、医療画像解析にフェアネスモデルを採用する場合、緩和されなければならない。
関連論文リスト
- Evaluating Machine Learning-based Skin Cancer Diagnosis [0.0]
この研究は、MobileNetベースのモデルとカスタムCNNモデルの2つの畳み込みニューラルネットワークアーキテクチャを評価する。
どちらのモデルも、皮膚病変を7つのカテゴリに分類し、危険病変と良性病変を区別する能力について評価されている。
この研究は、モデルが説明可能性を示す一方で、異なる肌のトーンの公平性を確保するためにさらなる開発が必要であると結論付けている。
論文 参考訳(メタデータ) (2024-09-04T02:44:48Z) - PRECISe : Prototype-Reservation for Explainable Classification under Imbalanced and Scarce-Data Settings [0.0]
PreCISeは,3つの課題すべてに対処するために,簡潔に構築された説明可能な設計モデルである。
PreCISeは、マイノリティクラスへのデータ効率的な一般化において、現在の最先端メソッドよりも優れています。
ケーススタディでは、モデルが容易に解釈可能な予測を生成する能力を強調している。
論文 参考訳(メタデータ) (2024-08-11T12:05:32Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - Inspecting Model Fairness in Ultrasound Segmentation Tasks [20.281029492841878]
2つの超音波データセットを用いて,一連の深層学習(DL)セグメンテーションモデルについて検討する。
以上の結果から,最先端のDLアルゴリズムでさえ,超音波セグメンテーション作業において不公平な動作を示すことが明らかとなった。
これらの結果は重要な警告として機能し、実際のシナリオに展開する前に、慎重にモデル評価を行う必要性を強調します。
論文 参考訳(メタデータ) (2023-12-05T05:08:08Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Generalizability of Machine Learning Models: Quantitative Evaluation of
Three Methodological Pitfalls [1.3870303451896246]
いくつかの医用画像データセットを用いてランダムフォレストとディープ畳み込みニューラルネットワークモデルを実装した。
独立仮定の違反はモデル一般化可能性に大きく影響する可能性が示唆された。
不適切なパフォーマンス指標は誤った結論につながる可能性がある。
論文 参考訳(メタデータ) (2022-02-01T05:07:27Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。