論文の概要: ProsDectNet: Bridging the Gap in Prostate Cancer Detection via
Transrectal B-mode Ultrasound Imaging
- arxiv url: http://arxiv.org/abs/2312.05334v1
- Date: Fri, 8 Dec 2023 19:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:34:52.420540
- Title: ProsDectNet: Bridging the Gap in Prostate Cancer Detection via
Transrectal B-mode Ultrasound Imaging
- Title(参考訳): ProsDectNet: Transrectal B-mode Ultrasound Imaging による前立腺癌検出におけるギャップを埋める
- Authors: Sulaiman Vesal, Indrani Bhattacharya, Hassan Jahanandish, Xinran Li,
Zachary Kornberg, Steve Ran Zhou, Elijah Richard Sommer, Moon Hyung Choi,
Richard E. Fan, Geoffrey A. Sonn, Mirabela Rusu
- Abstract要約: ProsDectNetはBモード超音波で前立腺がんを局在させるマルチタスクディープラーニングアプローチである。
MRI-TRUS 融合生検を施行した289例のコホートを用いて, ProsDectNet の訓練と評価を行った。
以上の結果から,ProsDectNetはコンピュータ支援診断システムとして利用できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.6024562346319167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpreting traditional B-mode ultrasound images can be challenging due to
image artifacts (e.g., shadowing, speckle), leading to low sensitivity and
limited diagnostic accuracy. While Magnetic Resonance Imaging (MRI) has been
proposed as a solution, it is expensive and not widely available. Furthermore,
most biopsies are guided by Transrectal Ultrasound (TRUS) alone and can miss up
to 52% cancers, highlighting the need for improved targeting. To address this
issue, we propose ProsDectNet, a multi-task deep learning approach that
localizes prostate cancer on B-mode ultrasound. Our model is pre-trained using
radiologist-labeled data and fine-tuned using biopsy-confirmed labels.
ProsDectNet includes a lesion detection and patch classification head, with
uncertainty minimization using entropy to improve model performance and reduce
false positive predictions. We trained and validated ProsDectNet using a cohort
of 289 patients who underwent MRI-TRUS fusion targeted biopsy. We then tested
our approach on a group of 41 patients and found that ProsDectNet outperformed
the average expert clinician in detecting prostate cancer on B-mode ultrasound
images, achieving a patient-level ROC-AUC of 82%, a sensitivity of 74%, and a
specificity of 67%. Our results demonstrate that ProsDectNet has the potential
to be used as a computer-aided diagnosis system to improve targeted biopsy and
treatment planning.
- Abstract(参考訳): 従来のbモード超音波画像の解釈は、画像アーティファクト(シャドーイングやスペックルなど)によって困難になり、感度が低下し、診断精度が低下する。
磁気共鳴イメージング(MRI)は解決策として提案されているが、高価で広く利用できない。
さらに、ほとんどの生検は経直腸超音波(TRUS)だけでガイドされており、最大52%のがんを見逃し、ターゲティングの改善の必要性を強調している。
本稿では,Bモード超音波上で前立腺癌を局所化するマルチタスク深層学習手法ProsDectNetを提案する。
バイオプシー確認ラベルを用いて, 放射線技師ラベルデータを用いて事前トレーニングを行い, 微調整を行った。
ProsDectNetは病変検出とパッチ分類ヘッドを備えており、エントロピーによるモデル性能の向上と偽陽性予測の低減のために不確実性を最小化している。
MRI-TRUS 融合生検を施行した289例のコホートを用いてProsDectNetの訓練と評価を行った。
その後,41例の患者に対して,prosdectnetはbモード超音波画像による前立腺癌検出において,平均専門家臨床医よりも優れており,患者レベルのroc-aucは82%,感度は74%,特異度は67%であった。
以上の結果から,ProsDectNetは標的となる生検や治療計画を改善するコンピュータ支援診断システムとして利用できる可能性が示唆された。
関連論文リスト
- Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - Multi-modality transrectal ultrasound video classification for
identification of clinically significant prostate cancer [4.896561300855359]
臨床的に重要な前立腺癌(csPCa)のマルチモーダルTRUSビデオから分類するための枠組みを提案する。
提案するフレームワークは,512本のTRUSビデオを含む社内データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-02-14T07:06:30Z) - Radiomics Boosts Deep Learning Model for IPMN Classification [3.4659499358648675]
膵管内乳頭粘液性腫瘍 (IPMN) の嚢胞は術前膵管病変であり,膵癌に進展する可能性がある。
本研究では,MRIスキャンからIPMNリスク分類のための新しいコンピュータ支援診断パイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-11T22:41:52Z) - COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical
Network to Monitor and Detect COVID-19 Infection from Point-of-Care
Ultrasound Images [66.63200823918429]
COVID-Net USProは、最小限の超音波画像から高精度で新型コロナウイルス陽性の患者を監視し、検出する。
ネットワーク全体では99.65%の精度、99.7%のリコール、99.67%の精度で5発の撮影で訓練された。
論文 参考訳(メタデータ) (2023-01-04T16:05:51Z) - Localizing Scan Targets from Human Pose for Autonomous Lung Ultrasound
Imaging [61.60067283680348]
新型コロナウイルス(COVID-19)の世界的なパンデミックの出現に伴い、超音波画像を完全に自動化する必要がある。
本稿では,学習型コンピュータビジョン技術を取り入れた,視覚に基づくデータ駆動方式を提案する。
本手法は、プローブ位置決めのための15.52mm(9.47mm)、プローブ方位のための4.32(3.69deg)の精度を達成し、全走査目標に対する誤差閾値25mm以下で成功率を80%以上とした。
論文 参考訳(メタデータ) (2022-12-15T14:34:12Z) - ProstAttention-Net: A deep attention model for prostate cancer
segmentation by aggressiveness in MRI scans [4.964026843682986]
本稿では,前立腺と癌病変をGleason score (GS) group gradingと共同で分割する,新しいエンドツーエンドのマルチクラスネットワークを提案する。
前立腺全体の2.9偽陽性では69.0%$pm$14.5%、末梢領域(PZ)のみを考慮すると1.5偽陽性では70.8%$pm$14.4%である。
論文 参考訳(メタデータ) (2022-11-23T16:21:21Z) - Towards Confident Detection of Prostate Cancer using High Resolution
Micro-ultrasound [7.826781688190151]
経直腸超音波ガイド下生検における前立腺癌の診断は困難である。
マイクロ超音波による高周波超音波イメージングの最近の進歩は、高分解能で組織イメージングの能力を劇的に高めている。
本研究の目的は,マイクロ超音波ガイド下前立腺癌生検を対象とする,堅牢な深層学習モデルの開発である。
論文 参考訳(メタデータ) (2022-07-21T14:00:00Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - COVID-Net US: A Tailored, Highly Efficient, Self-Attention Deep
Convolutional Neural Network Design for Detection of COVID-19 Patient Cases
from Point-of-care Ultrasound Imaging [101.27276001592101]
我々は,肺POCUS画像からの新型コロナウイルススクリーニングに適した,高効率で自己注意型の深層畳み込みニューラルネットワーク設計であるCOVID-Net USを紹介した。
実験の結果、提案されたCOVID-Net USは、アーキテクチャの複雑さが353倍、計算の複雑さが62倍、Raspberry Piで14.3倍高速なAUCを達成できることがわかった。
リソース制約のある環境において安価な医療と人工知能を提唱するために、COVID-Net USをオープンソースにし、COVID-Netオープンソースイニシアチブの一部として公開しました。
論文 参考訳(メタデータ) (2021-08-05T16:47:33Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Deep Learning for fully automatic detection, segmentation, and Gleason
Grade estimation of prostate cancer in multiparametric Magnetic Resonance
Images [0.731365367571807]
本稿では,PCa-suspect 患者から前立腺 mpMRI を抽出するDeep Learning に基づく完全自動システムを提案する。
PCaの病変を特定し、それらを分類し、最も可能性の高いGleason grade group(GGG)を予測する。
ProstateXトレーニングシステムのコードはhttps://github.com/OscarPellicer/prostate_lesion_detection.comで公開されている。
論文 参考訳(メタデータ) (2021-03-23T16:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。