論文の概要: A Cascaded Residual UNET for Fully Automated Segmentation of Prostate
and Peripheral Zone in T2-weighted 3D Fast Spin Echo Images
- arxiv url: http://arxiv.org/abs/2012.13501v1
- Date: Fri, 25 Dec 2020 03:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:35:42.202672
- Title: A Cascaded Residual UNET for Fully Automated Segmentation of Prostate
and Peripheral Zone in T2-weighted 3D Fast Spin Echo Images
- Title(参考訳): T2強調3次元高速スピンエコー画像における前立腺領域と末梢領域の完全自動分割のための残留UNET
- Authors: Lavanya Umapathy, Wyatt Unger, Faryal Shareef, Hina Arif, Diego
Martin, Maria Altbach, and Ali Bilgin
- Abstract要約: 前立腺癌の非侵襲的診断には多パラメータMR画像が有効であることが示されている。
本研究では,前立腺と周辺領域のセグメンテーションのための残留ブロック,カスケードMRes-UNETを用いた完全自動深層学習アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.6710577107094644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-parametric MR images have been shown to be effective in the
non-invasive diagnosis of prostate cancer. Automated segmentation of the
prostate eliminates the need for manual annotation by a radiologist which is
time consuming. This improves efficiency in the extraction of imaging features
for the characterization of prostate tissues. In this work, we propose a fully
automated cascaded deep learning architecture with residual blocks, Cascaded
MRes-UNET, for segmentation of the prostate gland and the peripheral zone in
one pass through the network. The network yields high Dice scores
($0.91\pm.02$), precision ($0.91\pm.04$), and recall scores ($0.92\pm.03$) in
prostate segmentation compared to manual annotations by an experienced
radiologist. The average difference in total prostate volume estimation is less
than 5%.
- Abstract(参考訳): 前立腺癌の非侵襲的診断には多パラメータMR画像が有効であることが示されている。
前立腺の自動セグメンテーションは、時間を要する放射線技師による手動アノテーションの必要性を排除する。
これにより、前立腺組織のキャラクタリゼーションのための画像特徴抽出の効率が向上する。
本研究では,ネットワークを経由する前立腺と末梢領域のセグメンテーションのために,残差ブロックであるカスケードmres-unetを用いた,完全自動カスケード型ディープラーニングアーキテクチャを提案する。
ネットワークは高Diceスコア(0.91\pm.02$)、精度(0.91\pm.04$)、リコールスコア(0.92\pm.03$)を前立腺セグメンテーションで得る。
前立腺総容積推定の平均差は5%未満である。
関連論文リスト
- Prostate Cancer Malignancy Detection and localization from mpMRI using
auto-Deep Learning: One Step Closer to Clinical Utilization [1.10631624467393]
我々は201人の患者を対象に、パブリックコホートで独自の畳み込みニューラルネットワークを訓練した。
末梢領域 (PZ) と中心腺 (CG) を個別に訓練し, 試験を行った。
PZ検出器とCG検出器は、配列から最も疑わしいスライスをハイライトするために効果的に実証された。
論文 参考訳(メタデータ) (2022-06-13T15:14:59Z) - SpineNetV2: Automated Detection, Labelling and Radiological Grading Of
Clinical MR Scans [70.04389979779195]
SpineNetV2は、臨床脊髄磁気共鳴(MR)スキャンで脊椎を検知し、ラベル付けする自動化ツールである。
また、T2強調スキャンで腰椎椎間板のX線学的グレーディングを行い、様々な一般的な変性変化を観察する。
論文 参考訳(メタデータ) (2022-05-03T15:05:58Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - A new smart-cropping pipeline for prostate segmentation using deep
learning networks [4.789043574854139]
MRI画像から前立腺周辺の領域を抽出し,前景画素と背景画素のよりバランスのとれた分布を生成するためのDLベースのパイプラインを提案する。
提案したスマートクロッピングは、評価された前立腺区分けネットワークのセグメンテーション精度の観点から、標準中心収量よりも優れていた。
論文 参考訳(メタデータ) (2021-07-06T08:42:48Z) - Automatic Segmentation of the Prostate on 3D Trans-rectal Ultrasound
Images using Statistical Shape Models and Convolutional Neural Networks [3.9121134770873733]
本稿では,畳み込みニューラルネットワーク(CNN)と統計的形状モデル(SSM)を用いて,経直腸超音波(TRUS)画像のデータセット上に前立腺を分割することを提案する。
TRUSは軟組織コントラストが限られており、前立腺のセグメンテーションが困難である。
論文 参考訳(メタデータ) (2021-06-17T17:11:53Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Deep Learning for fully automatic detection, segmentation, and Gleason
Grade estimation of prostate cancer in multiparametric Magnetic Resonance
Images [0.731365367571807]
本稿では,PCa-suspect 患者から前立腺 mpMRI を抽出するDeep Learning に基づく完全自動システムを提案する。
PCaの病変を特定し、それらを分類し、最も可能性の高いGleason grade group(GGG)を予測する。
ProstateXトレーニングシステムのコードはhttps://github.com/OscarPellicer/prostate_lesion_detection.comで公開されている。
論文 参考訳(メタデータ) (2021-03-23T16:08:43Z) - End-to-end Prostate Cancer Detection in bpMRI via 3D CNNs: Effect of
Attention Mechanisms, Clinical Priori and Decoupled False Positive Reduction [0.0]
本研究では、Bi-parametric MR Imaging (bpMRI) における臨床的に重要な前立腺癌(csa)の自動局在化のための新しい3Dコンピュータ支援診断モデルを提案する。
ディープアテンションメカニズムはその検出ネットワークを駆動し、多解像度で健全な構造と高度に識別可能な特徴次元をターゲットにしている。
CNNベースのモデルは、独立コホートにおける生検で確認された悪性腫瘍を検出するために訓練することができる。
論文 参考訳(メタデータ) (2021-01-08T22:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。