論文の概要: A Multi-site Study of a Breast Density Deep Learning Model for
Full-field Digital Mammography Images and Synthetic Mammography Images
- arxiv url: http://arxiv.org/abs/2001.08383v2
- Date: Fri, 2 Oct 2020 20:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 12:58:02.538753
- Title: A Multi-site Study of a Breast Density Deep Learning Model for
Full-field Digital Mammography Images and Synthetic Mammography Images
- Title(参考訳): フルフィールドデジタルマンモグラフィ画像と合成マンモグラフィ画像のための胸部密度深層学習モデルの多地点解析
- Authors: Thomas P. Matthews (1), Sadanand Singh (1), Brent Mombourquette (1),
Jason Su (1), Meet P. Shah (1), Stefano Pedemonte (1), Aaron Long (1), David
Maffit (2), Jenny Gurney (2), Rodrigo Morales Hoil (1), Nikita Ghare (1),
Douglas Smith (1), Stephen M. Moore (2), Susan C. Marks (3), Richard L. Wahl
(2), ((1) Whiterabbit AI, Inc., Santa Clara, CA, (2) Mallinckrodt Institute
of Radiology, Washington University School of Medicine, St. Louis, MO, (3)
Peninsula Diagnostic Imaging, San Mateo, CA)
- Abstract要約: 合成2次元マンモグラフィー(SM)画像のための多地点設定において、乳房画像報告・データシステム(BI-RADS)乳房密度深度学習(DL)モデルを開発する。
フルフィールドデジタルマンモグラフィー(FFDM)画像と限られたSMデータを用いてBI-RADS乳房密度を予測するためのDLモデルを訓練した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To develop a Breast Imaging Reporting and Data System (BI-RADS)
breast density deep learning (DL) model in a multi-site setting for synthetic
two-dimensional mammography (SM) images derived from digital breast
tomosynthesis exams using full-field digital mammography (FFDM) images and
limited SM data.
Materials and Methods: A DL model was trained to predict BI-RADS breast
density using FFDM images acquired from 2008 to 2017 (Site 1: 57492 patients,
187627 exams, 750752 images) for this retrospective study. The FFDM model was
evaluated using SM datasets from two institutions (Site 1: 3842 patients, 3866
exams, 14472 images, acquired from 2016 to 2017; Site 2: 7557 patients, 16283
exams, 63973 images, 2015 to 2019). Each of the three datasets were then split
into training, validation, and test datasets. Adaptation methods were
investigated to improve performance on the SM datasets and the effect of
dataset size on each adaptation method is considered. Statistical significance
was assessed using confidence intervals (CI), estimated by bootstrapping.
Results: Without adaptation, the model demonstrated substantial agreement
with the original reporting radiologists for all three datasets (Site 1 FFDM:
linearly-weighted $\kappa_w$ = 0.75 [95% CI: 0.74, 0.76]; Site 1 SM: $\kappa_w$
= 0.71 [95% CI: 0.64, 0.78]; Site 2 SM: $\kappa_w$ = 0.72 [95% CI: 0.70,
0.75]). With adaptation, performance improved for Site 2 (Site 1: $\kappa_w$ =
0.72 [95% CI: 0.66, 0.79], 0.71 vs 0.72, P = .80; Site 2: $\kappa_w$ = 0.79
[95% CI: 0.76, 0.81], 0.72 vs 0.79, P $<$ .001) using only 500 SM images from
that site.
Conclusion: A BI-RADS breast density DL model demonstrated strong performance
on FFDM and SM images from two institutions without training on SM images and
improved using few SM images.
- Abstract(参考訳): 目的:全野デジタルマンモグラフィー(FFDM)画像と限られたSMデータを用いて、デジタル乳房トモシンセプション試験から得られた合成2次元マンモグラフィー(SM)画像の多地点環境での乳房イメージングレポート・データシステム(BI-RADS)乳房密度深度学習(DL)モデルを開発すること。
材料と方法: 2008年から2017年に取得したFFDM画像(第1部: 57492例, 187627試験, 750752例)を用いてBI-RADSの乳房密度を予測するためのDLモデルを訓練した。
ffdmモデルは、2つの機関のsmデータセットを用いて評価された(サイト1:3842人、テスト3866人、画像14472人、サイト2:7557人、試験16283人、画像63973人、2015年~2019年)。
3つのデータセットはそれぞれ、トレーニング、検証、テストデータセットに分割される。
SMデータセットの性能向上のために適応法を検討し,各適応法に対するデータセットサイズの影響を検討した。
統計的意義は, ブートストレッピングによって推定される信頼区間 (CI) を用いて評価した。
結果: 適応がなければ,3つのデータセットすべてについて,元の報告放射線学者と相当な一致を示した(Site 1 FFDM: linearly-weighted $\kappa_w$ = 0.75 [95% CI: 0.74, 0.76]; Site 1 SM: $\kappa_w$ = 0.71 [95% CI: 0.64, 0.78]; Site 2 SM: $\kappa_w$ = 0.72 [95% CI: 0.70, 0.75])。
Site 1: $\kappa_w$ = 0.72 [95% CI: 0.66, 0.79], 0.71 vs 0.72, P = .80; Site 2: $\kappa_w$ = 0.79 [95% CI: 0.76, 0.81], 0.72 vs 0.79, P $<$ 001) のパフォーマンスは、サイトの500 SMイメージのみを使用して改善された。
結論: BI-RADS 乳腺密度DLモデルでは, SM画像の訓練を伴わず, SM画像が少ないため, FFDM, SM画像に強い効果を示した。
関連論文リスト
- Medical Slice Transformer: Improved Diagnosis and Explainability on 3D Medical Images with DINOv2 [1.6275928583134276]
医用スライストランスフォーマー(MST)フレームワークを導入し,3次元医用画像解析に2次元自己監督モデルを適用した。
MSTは畳み込みニューラルネットワークと比較して、診断精度と説明性の向上を提供する。
論文 参考訳(メタデータ) (2024-11-24T12:11:11Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Automated segmentation of 3-D body composition on computed tomography [0.0]
VAT,SAT,IMAT,SM,骨の5種類の異なる体組成を手動でアノテートした。
畳み込みニューラルネットワーク(CNN)の性能評価と評価に10倍のクロスバリデーション法が用いられた。
3つのCNNモデルの中で、UNetは5つのボディ構成を共同でセグメント化する上で、最高の全体的な性能を示した。
論文 参考訳(メタデータ) (2021-12-16T15:38:27Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Breast Cancer Diagnosis in Two-View Mammography Using End-to-End Trained
EfficientNet-Based Convolutional Network [0.0]
深層畳み込みニューラルネットワークは、ヒトの専門家と同等またはそれ以上の性能の乳がんをマンモグラムで診断する。
本稿では,2つの転帰学習から成る最良技術について紹介する。
論文 参考訳(メタデータ) (2021-10-01T22:09:59Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z) - Adaptation of a deep learning malignancy model from full-field digital
mammography to digital breast tomosynthesis [3.8954120406920336]
デジタル乳房トモシンセシス (DBT) は, 感度と特異性を高めることにより, 従来のマンモグラフィーを改善する。
深層学習(DL)モデルは主に2次元フルフィールドデジタルマンモグラフィ(FFDM)やスキャンされたフィルム画像に基づいて開発されている。
論文 参考訳(メタデータ) (2020-01-23T05:44:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。