論文の概要: Performance Gaps of Artificial Intelligence Models Screening Mammography
-- Towards Fair and Interpretable Models
- arxiv url: http://arxiv.org/abs/2305.04422v1
- Date: Mon, 8 May 2023 02:28:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 15:53:05.032435
- Title: Performance Gaps of Artificial Intelligence Models Screening Mammography
-- Towards Fair and Interpretable Models
- Title(参考訳): マンモグラフィをスクリーニングする人工知能モデルの性能ギャップ --公正かつ解釈可能なモデルに向けて-
- Authors: Linglin Zhang, Beatrice Brown-Mulry, Vineela Nalla, InChan Hwang, Judy
Wawira Gichoya, Aimilia Gastounioti, Imon Banerjee, Laleh Seyyed-Kalantari,
MinJae Woo, Hari Trivedi
- Abstract要約: マンモグラム検診における異常分類の障害リスクの増加に伴う人口統計学的特徴と画像的特徴について検討した。
正常組織と異常組織を分類するために訓練されたResNet152V2モデルは92.6%の精度を達成した。
- 参考スコア(独自算出の注目度): 1.7918451505509272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To analyze the demographic and imaging characteristics associated
with increased risk of failure for abnormality classification in screening
mammograms. Materials and Methods: This retrospective study used data from the
Emory BrEast Imaging Dataset (EMBED) which includes mammograms from 115,931
patients imaged at Emory University Healthcare between 2013 to 2020. Clinical
and imaging data includes Breast Imaging Reporting and Data System (BI-RADS)
assessment, region of interest coordinates for abnormalities, imaging features,
pathologic outcomes, and patient demographics. Multiple deep learning models
were developed to distinguish between patches of abnormal tissue and randomly
selected patches of normal tissue from the screening mammograms. We assessed
model performance overall and within subgroups defined by age, race, pathologic
outcome, and imaging characteristics to evaluate reasons for
misclassifications. Results: On a test set size of 5,810 studies (13,390
patches), a ResNet152V2 model trained to classify normal versus abnormal tissue
patches achieved an accuracy of 92.6% (95% CI = 92.0-93.2%), and area under the
receiver operative characteristics curve 0.975 (95% CI = 0.972-0.978). Imaging
characteristics associated with higher misclassifications of images include
higher tissue densities (risk ratio [RR]=1.649; p=.010, BI-RADS density C and
RR=2.026; p=.003, BI-RADS density D), and presence of architectural distortion
(RR=1.026; p<.001). Conclusion: Even though deep learning models for
abnormality classification can perform well in screening mammography, we
demonstrate certain imaging features that result in worse model performance.
This is the first such work to systematically evaluate breast abnormality
classification by various subgroups and better-informed developers and
end-users of population subgroups which are likely to experience biased model
performance.
- Abstract(参考訳): 目的:マンモグラム検診における異常分類の失敗リスクの増加に伴う人口動態と画像の特徴を解析すること。
材料と方法: この振り返り研究は、2013年から2020年にかけてエモリー大学医療センターで撮影された115,931人のマンモグラムを含むEMBED(Emory BrEast Imaging Dataset)のデータを使用した。
臨床および画像データには、乳房画像報告・データシステム(BI-RADS)の評価、異常に対する関心座標の領域、画像の特徴、病理学的結果、および患者の人口統計が含まれる。
異常組織のパッチとランダムに選択された正常組織のパッチをスクリーニングマンモグラムと区別するために,複数のディープラーニングモデルを開発した。
年齢,人種,病理学的結果,画像的特徴によって定義されるサブグループ内でのモデル性能を評価し,誤分類の原因を評価する。
結果: テストセットサイズ5,810(パッチ13,390枚)では, 正常組織と異常組織を分類するResNet152V2モデルが92.6%(95% CI = 92.0-93.2%), 受信機操作特性曲線0.975(95% CI = 0.972-0.978)の精度を得た。
画像の誤分類に関連する画像の特徴としては、高次組織密度(リスク比 [RR]=1.649; p=.010, BI-RADS 密度 C と RR=2.026; p=.003, BI-RADS 密度 D)、構造歪み(RR=1.026; p<.001)がある。
結語: 異常分類のための深層学習モデルは, マンモグラフィーのスクリーニングにおいて良好に機能するが, モデル性能が悪化する特定の画像特徴を示す。
これは、様々なサブグループによる乳房異常分類を体系的に評価する最初の研究であり、偏りのあるモデルパフォーマンスを経験する可能性のある人口サブグループのより優れた開発者とエンドユーザである。
関連論文リスト
- CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - A Demographic-Conditioned Variational Autoencoder for fMRI Distribution Sampling and Removal of Confounds [49.34500499203579]
変動型オートエンコーダ(VAE)ベースのモデルであるDemoVAEを作成し、人口統計学から fMRI の特徴を推定する。
ユーザが供給する人口動態に基づいて,高品質な合成fMRIデータを生成する。
論文 参考訳(メタデータ) (2024-05-13T17:49:20Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Improving Fairness of Automated Chest X-ray Diagnosis by Contrastive
Learning [19.948079693716075]
提案するAIモデルは、教師付きコントラスト学習を利用して、CXR診断におけるバイアスを最小限にする。
77,887個のCXR画像を用いたMIDRCデータセットと,112,120個のCXR画像を用いたNIH Chest X-rayデータセットの2つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-01-25T20:03:57Z) - Performance of externally validated machine learning models based on
histopathology images for the diagnosis, classification, prognosis, or
treatment outcome prediction in female breast cancer: A systematic review [0.5792122879054292]
女性乳癌の診断、分類、予後、治療結果予測のための外部検証された機械学習モデル。
診断用MLモデル3例,分類用4例,予後用2例,予後用1例について検討した。
ほとんどの研究では畳み込みニューラルネットワークとロジスティック回帰アルゴリズムが使用されている。
論文 参考訳(メタデータ) (2023-12-09T18:27:56Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。