論文の概要: Risk of Bias in Chest Radiography Deep Learning Foundation Models
- arxiv url: http://arxiv.org/abs/2209.02965v3
- Date: Fri, 29 Sep 2023 21:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:21:06.218808
- Title: Risk of Bias in Chest Radiography Deep Learning Foundation Models
- Title(参考訳): 胸部x線深部学習基盤モデルにおけるバイアスのリスク
- Authors: Ben Glocker, Charles Jones, Melanie Roschewitz, Stefan Winzeck
- Abstract要約: 2002年10月から2017年7月までに収集されたCheXpertデータセットから,42,884人の胸部X線写真127,118点(平均年齢63[SD]17歳,男性23,623点,女性19,261点)を使用した。
生物学的セックスと人種における12対比較のうち10は、研究基盤モデルに統計的に有意な差が認められた。
男性と女性 (P .001) とアジアと黒人 (P .001) の間に有意な差がみられた。
- 参考スコア(独自算出の注目度): 14.962566915809264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: To analyze a recently published chest radiography foundation model
for the presence of biases that could lead to subgroup performance disparities
across biological sex and race.
Materials and Methods: This retrospective study used 127,118 chest
radiographs from 42,884 patients (mean age, 63 [SD] 17 years; 23,623 male,
19,261 female) from the CheXpert dataset collected between October 2002 and
July 2017. To determine the presence of bias in features generated by a chest
radiography foundation model and baseline deep learning model, dimensionality
reduction methods together with two-sample Kolmogorov-Smirnov tests were used
to detect distribution shifts across sex and race. A comprehensive disease
detection performance analysis was then performed to associate any biases in
the features to specific disparities in classification performance across
patient subgroups.
Results: Ten out of twelve pairwise comparisons across biological sex and
race showed statistically significant differences in the studied foundation
model, compared with four significant tests in the baseline model. Significant
differences were found between male and female (P < .001) and Asian and Black
patients (P < .001) in the feature projections that primarily capture disease.
Compared with average model performance across all subgroups, classification
performance on the 'no finding' label dropped between 6.8% and 7.8% for female
patients, and performance in detecting 'pleural effusion' dropped between 10.7%
and 11.6% for Black patients.
Conclusion: The studied chest radiography foundation model demonstrated
racial and sex-related bias leading to disparate performance across patient
subgroups and may be unsafe for clinical applications.
- Abstract(参考訳): 目的: 最近公表された胸部x線撮影基盤モデルを用いて, 生物性および人種間のサブグループパフォーマンス格差を生じさせるバイアスについて分析すること。
資料と方法:2002年10月から2017年7月までに収集されたchexpertデータセットから42,884人(平均年齢63歳、男性23,623人、女性19,261人)の胸部x線写真を用いた。
胸部X線撮影基礎モデルとベースライン深層学習モデルにより生じる特徴の偏りを判定するために,2サンプルのコルモゴロフ・スミルノフ試験と併用して,性別と人種間の分布変化を検出する。
総合的な疾患検出性能分析を行い,特徴のバイアスを患者サブグループ間での分類性能の差異に関連づけた。
結果: 生物学的性別と人種の対比較12件中10件は, 基礎モデルに有意な差が認められたが, 基礎モデルに有意な差が認められた。
男性と女性 (P < .001) とアジアと黒人の患者 (P < .001) の間に有意な差異が認められた。
全サブグループの平均モデル性能と比較すると、「発見なし」ラベルの分類性能は女性の6.8%から7.8%に低下し、「胸水」検出性能は黒人の10.7%から11.6%に低下した。
結論: 胸部X線撮影基礎モデルでは, 人種的, 性別的偏見が患者サブグループ間で異なっており, 臨床応用には不適当であった。
関連論文リスト
- Slicing Through Bias: Explaining Performance Gaps in Medical Image Analysis using Slice Discovery Methods [5.274804664403783]
我々はSlice Discovery Methodsを用いて、観測された性能格差の原因に関する仮説とデータの解釈可能な未実行部分集合を同定する。
本研究は, 仮説定式化におけるSDMの有効性を実証し, 既往の男女間パフォーマンスの相違について解説する。
論文 参考訳(メタデータ) (2024-06-17T23:08:46Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Analysing race and sex bias in brain age prediction [18.68533487971233]
本稿では,サブグループ性能解析と特徴検査を行うことにより,一般的なResNet-34モデルを解析する。
その結果,黒,白,黒,アジア,男女の予測性能に統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2023-09-19T14:40:19Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Generalizable and Robust Deep Learning Algorithm for Atrial Fibrillation
Diagnosis Across Ethnicities, Ages and Sexes [0.0]
本研究では,AFイベント検出のためのディープラーニング(DL)モデルの一般化性能を初めて開発し,評価した。
ArNet2は、51,386時間連続心電図(ECG)を計上した2,147人の大規模な振り返りデータセットに基づいて開発された。
イスラエルのハイファにあるランバム病院ホルタークリニックから1,730回連続したホルター記録の振り返りデータセットで検証された。
論文 参考訳(メタデータ) (2022-07-20T05:49:16Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Personalized pathology test for Cardio-vascular disease: Approximate
Bayesian computation with discriminative summary statistics learning [48.7576911714538]
近似計算を用いて生物学的に有意なパラメータを推定するための血小板沈着モデルと推論手法を提案する。
この研究は、CVDの検出と治療のためのパーソナライズされた病理検査の先例のない機会を開く。
論文 参考訳(メタデータ) (2020-10-13T15:20:21Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。