論文の概要: Subgroup Performance of a Commercial Digital Breast Tomosynthesis Model for Breast Cancer Detection
- arxiv url: http://arxiv.org/abs/2503.13581v1
- Date: Mon, 17 Mar 2025 17:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:11.762017
- Title: Subgroup Performance of a Commercial Digital Breast Tomosynthesis Model for Breast Cancer Detection
- Title(参考訳): 乳がん検出のための市販デジタル乳房共生モデルのサブグループ性能
- Authors: Beatrice Brown-Mulry, Rohan Satya Isaac, Sang Hyup Lee, Ambika Seth, KyungJee Min, Theo Dapamede, Frank Li, Aawez Mansuri, MinJae Woo, Christian Allison Fauria-Robinson, Bhavna Paryani, Judy Wawira Gichoya, Hari Trivedi,
- Abstract要約: 本研究では,163,449検診大振り返りコホートにおけるLunit INSIGHTモデルの粒度評価を行った。
成績は人口統計学的に良好であったが,非浸潤性癌では有意に低い成績を示した。
- 参考スコア(独自算出の注目度): 5.089670339445636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While research has established the potential of AI models for mammography to improve breast cancer screening outcomes, there have not been any detailed subgroup evaluations performed to assess the strengths and weaknesses of commercial models for digital breast tomosynthesis (DBT) imaging. This study presents a granular evaluation of the Lunit INSIGHT DBT model on a large retrospective cohort of 163,449 screening mammography exams from the Emory Breast Imaging Dataset (EMBED). Model performance was evaluated in a binary context with various negative exam types (162,081 exams) compared against screen detected cancers (1,368 exams) as the positive class. The analysis was stratified across demographic, imaging, and pathologic subgroups to identify potential disparities. The model achieved an overall AUC of 0.91 (95% CI: 0.90-0.92) with a precision of 0.08 (95% CI: 0.08-0.08), and a recall of 0.73 (95% CI: 0.71-0.76). Performance was found to be robust across demographics, but cases with non-invasive cancers (AUC: 0.85, 95% CI: 0.83-0.87), calcifications (AUC: 0.80, 95% CI: 0.78-0.82), and dense breast tissue (AUC: 0.90, 95% CI: 0.88-0.91) were associated with significantly lower performance compared to other groups. These results highlight the need for detailed evaluation of model characteristics and vigilance in considering adoption of new tools for clinical deployment.
- Abstract(参考訳): 乳がん検診結果を改善するためのマンモグラフィーのためのAIモデルの可能性は確立されているが、デジタル乳がんトモシンセシス(DBT)イメージングのための商用モデルの強度と弱点を評価するための詳細なサブグループ評価は行われていない。
本研究は,エモリー乳房画像データセット(EMBED)を用いたマンモグラフィ検診163,449回の大振り返りコホートにおいて,Lunit INSIGHT DBTモデルの粒度評価を行った。
陰性試験型(162,081検定) を2つの文脈で評価し, スクリーン検出癌(1,368検定) を正のクラスとした。
この分析は、潜在的な格差を特定するために、人口統計学的、画像学的、病理学的サブグループにまたがって成層化された。
全体のAUCは0.91(95% CI: 0.90-0.92)、精度は0.08(95% CI: 0.08-0.08)、リコールは0.73(95% CI: 0.71-0.76)である。
非侵襲性癌 (AUC: 0.85, 95% CI: 0.83-0.87), 石灰化 (AUC: 0.80, 95% CI: 0.78-0.82) および高濃度乳房組織 (AUC: 0.90, 95% CI: 0.88-0.91) は他群と比較して有意に低い成績を示した。
これらの結果から, 臨床展開のための新しいツールの導入を検討する上で, モデル特性の詳細な評価と警戒の必要性が浮き彫りとなった。
関連論文リスト
- Cancer-Net PCa-Seg: Benchmarking Deep Learning Models for Prostate Cancer Segmentation Using Synthetic Correlated Diffusion Imaging [65.83291923029985]
前立腺癌(PCa)は米国で最も多いがんであり、約30,000人、全診断の29%、2024年に35,000人が死亡した。
前立腺特異的抗原 (PSA) 検査やMRI (MRI) などの従来のスクリーニング法は診断において重要であるが、特異性や一般化性には限界がある。
我々はU-Net、SegResNet、Swin UNETR、Attention U-Net、LightM-UNetといった最先端のディープラーニングモデルを用いて、200ドルのCDIからPCa病変を抽出する。
論文 参考訳(メタデータ) (2025-01-15T22:23:41Z) - Multi-modal AI for comprehensive breast cancer prognostication [18.691704371847855]
我々は、デジタル病理と臨床データを統合する新しい人工知能(AI)ベースのアプローチを開発した。
この検査は15のコホートで計8,161人の乳がん患者のデータを用いて開発・評価された。
以上の結果から,我々のAIテストは既存の予後検査の精度を改善しつつ,幅広い患者に適用可能であることが示唆された。
論文 参考訳(メタデータ) (2024-10-28T17:54:29Z) - Integrating Deep Learning with Fundus and Optical Coherence Tomography for Cardiovascular Disease Prediction [47.7045293755736]
心血管疾患(CVD)のリスクのある患者の早期発見は、効果的な予防ケア、医療負担の軽減、患者の生活の質の向上に不可欠である。
本研究は、網膜光コヒーレンス断層撮影(OCT)と眼底写真との併用による、将来の心疾患の特定の可能性を示すものである。
そこで我々は,MCVAE(Multi- Channel Variational Autoencoder)に基づく新たなバイナリ分類ネットワークを提案し,患者の眼底画像とOCT画像の潜伏埋め込みを学習し,個人を将来CVDを発症する可能性のあるものとそうでないものとの2つのグループに分類する。
論文 参考訳(メタデータ) (2024-10-18T12:37:51Z) - Detection of subclinical atherosclerosis by image-based deep learning on chest x-ray [86.38767955626179]
460胸部X線で冠状動脈カルシウム(CAC)スコアを予測する深層学習アルゴリズムを開発した。
AICACモデルの診断精度は, 曲線下領域(AUC)で評価された。
論文 参考訳(メタデータ) (2024-03-27T16:56:14Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Clinical Melanoma Diagnosis with Artificial Intelligence: Insights from
a Prospective Multicenter Study [1.2397589403129072]
AIはメラノーマの検出を強化するのに役立つことが証明されている。
現存する研究は、サンプルサイズが低いこと、同質なデータセットが多すぎること、希少なメラノーマ亜型の欠如によって制限されている。
メラノーマの診断精度と皮膚科医の診断精度を比較検討し, 確立されたメラノーマ検出用オープンソースアルゴリズムである「All Data is Ext」(ADAE)を評価した。
論文 参考訳(メタデータ) (2024-01-25T14:03:54Z) - Vision Transformer-Based Deep Learning for Histologic Classification of Endometrial Cancer [0.7228984887091693]
子宮内膜癌(英: Endometrial cancer)は、アメリカ合衆国の女性で4番目に多いがんであり、この疾患を発症するリスクは約2.8%である。
本研究では,畳み込みニューラルネットワークを用いて組織学的特徴を抽出し,その視覚的特徴に基づいてスライドを高次・低次に分類するEndoNetを紹介する。
このモデルは、ダートマス・ヘルスにおける子宮内膜癌に対する929のデジタル化ヘマトキシリンとエオシン染色による全スライディング画像に基づいて訓練された。
論文 参考訳(メタデータ) (2023-12-13T19:38:50Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z) - Machine Learning Automatically Detects COVID-19 using Chest CTs in a
Large Multicenter Cohort [43.99203831722203]
16施設2096例の胸部CT検査を行った。
新型コロナウイルスの分類のためのメートル法に基づくアプローチは、解釈可能な特徴を使用した。
深層学習に基づく分類器は,CT減衰から抽出した3D特徴と空域不透明度の確率分布を区別した。
論文 参考訳(メタデータ) (2020-06-09T00:40:35Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z) - Severity Assessment of Coronavirus Disease 2019 (COVID-19) Using
Quantitative Features from Chest CT Images [54.919022945740515]
本研究の目的は,胸部CT画像に基づく新型コロナウイルスの重症度自動評価(非重症度または重症度)を実現することである。
ランダム・フォレスト(RF)モデルは、量的特徴に基づいて重症度(非重症度または重症度)を評価するために訓練される。
新型コロナウイルスの重症度を反映する可能性のあるいくつかの定量的特徴が明らかになった。
論文 参考訳(メタデータ) (2020-03-26T15:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。