論文の概要: PI-RADS v2 Compliant Automated Segmentation of Prostate Zones Using
co-training Motivated Multi-task Dual-Path CNN
- arxiv url: http://arxiv.org/abs/2309.12970v1
- Date: Fri, 22 Sep 2023 16:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 14:01:18.659281
- Title: PI-RADS v2 Compliant Automated Segmentation of Prostate Zones Using
co-training Motivated Multi-task Dual-Path CNN
- Title(参考訳): PI-RADS v2 協調学習型マルチタスクデュアルパスCNNによる前立腺領域の自動分割
- Authors: Arnab Das, Suhita Ghosh and Sebastian Stober
- Abstract要約: MRIによる詳細な画像は、前立腺癌の診断と治療のための生命クリティカルな情報を提供する。
PI-RADS v2ガイドラインは、複雑なMRI画像の標準化された取得、解釈、使用を提供するために提案された。
ガイドラインに従う自動セグメンテーションは、一貫性と正確な病変の検出、ステージング、および治療を容易にする。
- 参考スコア(独自算出の注目度): 0.1074267520911262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detailed images produced by Magnetic Resonance Imaging (MRI) provide
life-critical information for the diagnosis and treatment of prostate cancer.
To provide standardized acquisition, interpretation and usage of the complex
MRI images, the PI-RADS v2 guideline was proposed. An automated segmentation
following the guideline facilitates consistent and precise lesion detection,
staging and treatment. The guideline recommends a division of the prostate into
four zones, PZ (peripheral zone), TZ (transition zone), DPU (distal prostatic
urethra) and AFS (anterior fibromuscular stroma). Not every zone shares a
boundary with the others and is present in every slice. Further, the
representations captured by a single model might not suffice for all zones.
This motivated us to design a dual-branch convolutional neural network (CNN),
where each branch captures the representations of the connected zones
separately. Further, the representations from different branches act
complementary to each other at the second stage of training, where they are
fine-tuned through an unsupervised loss. The loss penalises the difference in
predictions from the two branches for the same class. We also incorporate
multi-task learning in our framework to further improve the segmentation
accuracy. The proposed approach improves the segmentation accuracy of the
baseline (mean absolute symmetric distance) by 7.56%, 11.00%, 58.43% and 19.67%
for PZ, TZ, DPU and AFS zones respectively.
- Abstract(参考訳): MRIによる詳細な画像は前立腺癌の診断と治療のための生命クリティカルな情報を提供する。
複雑なMRI画像の標準的な取得、解釈、使用のために、PI-RADS v2ガイドラインが提案された。
ガイドラインに従う自動セグメンテーションは、一貫性と正確な病変の検出、ステージング、および治療を容易にする。
ガイドラインでは、前立腺をpz(peripheral zone)、tz(transition zone)、dpu(distal prostatic urethra)、afs(anterior fibromuscular stroma)の4つのゾーンに分割することを推奨している。
すべてのゾーンが他のゾーンと境界を共有し、すべてのスライスに存在するわけではない。
さらに、単一のモデルによってキャプチャされた表現は、すべてのゾーンに対して十分ではないかもしれない。
これにより、各ブランチが接続されたゾーンの表現を別々にキャプチャするデュアルブランチ畳み込みニューラルネットワーク(cnn)を設計することになった。
さらに、異なるブランチからの表現はトレーニングの第2段階で相互に補完的であり、教師なしの損失によって微調整される。
この損失は、同じクラスの2つのブランチからの予測の違いを解析する。
また,セグメンテーション精度を向上させるために,マルチタスク学習をフレームワークに組み込んだ。
提案手法は, PZ, TZ, DPU, AFSゾーンにおいて, それぞれ7.56%, 11.00%, 58.43%, 19.67%の偏差精度を向上する。
関連論文リスト
- Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - CAT-Net: A Cross-Slice Attention Transformer Model for Prostate Zonal
Segmentation in MRI [7.773931185385572]
本稿では,トランスフォーマーモジュールを用いて,異なるスケールでクロススライス関係を体系的に学習する,新しいクロススライスアテンション機構を提案する。
実験により, 前立腺領域分割におけるクロススライス情報の収集が可能であることが確認された。
論文 参考訳(メタデータ) (2022-03-29T00:50:54Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Self-transfer learning via patches: A prostate cancer triage approach
based on bi-parametric MRI [1.3934382972253603]
前立腺癌(PCa)は世界で2番目に多いがんである。
現在のPCa診断経路は、かなりの過剰診断のコストがかかり、不必要な治療とさらなる検査に繋がる。
臨床的に有意な (cS) 病変と非有意な (ncS) 病変を区別するためのパッチベースの事前訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-07-22T17:02:38Z) - Unsupervised Domain Adaptation with Variational Approximation for
Cardiac Segmentation [15.2292571922932]
非教師なし領域適応は、医用画像セグメンテーションに有用である。
両ドメインの潜在機能を共通かつパラメータ化された変分形式に駆動する新しいフレームワークを提案する。
これは、変分オートエンコーダ(VAE)とこの変分近似の正規化に基づく2つのネットワークによって実現される。
論文 参考訳(メタデータ) (2021-06-16T13:00:39Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z) - AttentionAnatomy: A unified framework for whole-body organs at risk
segmentation using multiple partially annotated datasets [30.23917416966188]
CT(Computed tomography)におけるOAR(Organs-at-risk)記述は,放射線治療(RT)計画において重要なステップである。
提案したエンドツーエンドの畳み込みニューラルネットワークモデルである textbfAttentionAnatomy は、3つの部分注釈付きデータセットで共同でトレーニングできる。
提案手法の実験結果から, ソレンセン・ディース係数 (DSC) と95%ハウスドルフ距離の両面で有意な改善が得られた。
論文 参考訳(メタデータ) (2020-01-13T18:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。