論文の概要: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on
Micro-Ultrasound Images
- arxiv url: http://arxiv.org/abs/2305.19956v1
- Date: Wed, 31 May 2023 15:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 15:44:56.149106
- Title: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on
Micro-Ultrasound Images
- Title(参考訳): MicroSegNet: マイクロ超音波画像における前立腺分割の深層学習手法
- Authors: Hongxu Jiang, Muhammad Imran, Preethika Muralidharan, Anjali Patel,
Jake Pensa, Muxuan Liang, Tarik Benidir, Joseph R. Grajo, Jason P. Joseph,
Russell Terry, John Michael DiBianco, Li-Ming Su, Yuyin Zhou, Wayne G.
Brisbane, and Wei Shao
- Abstract要約: マイクロ超音波(micro-US)は、従来の超音波の3.4倍の高分解能を提供する新しい29MHz超音波技術である。
前立腺の分画は前立腺体積測定、癌診断、前立腺生検、治療計画に不可欠である。
本稿では,マイクロUS画像上での高速かつ高精度な前立腺分割のための深層学習手法を提案する。
- 参考スコア(独自算出の注目度): 7.339463639600991
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that
provides 3-4 times higher resolution than traditional ultrasound, delivering
comparable accuracy for diagnosing prostate cancer to MRI but at a lower cost.
Accurate prostate segmentation is crucial for prostate volume measurement,
cancer diagnosis, prostate biopsy, and treatment planning. This paper proposes
a deep learning approach for automated, fast, and accurate prostate
segmentation on micro-US images. Prostate segmentation on micro-US is
challenging due to artifacts and indistinct borders between the prostate,
bladder, and urethra in the midline. We introduce MicroSegNet, a multi-scale
annotation-guided Transformer UNet model to address this challenge. During the
training process, MicroSegNet focuses more on regions that are hard to segment
(challenging regions), where expert and non-expert annotations show
discrepancies. We achieve this by proposing an annotation-guided cross entropy
loss that assigns larger weight to pixels in hard regions and lower weight to
pixels in easy regions. We trained our model using micro-US images from 55
patients, followed by evaluation on 20 patients. Our MicroSegNet model achieved
a Dice coefficient of 0.942 and a Hausdorff distance of 2.11 mm, outperforming
several state-of-the-art segmentation methods, as well as three human
annotators with different experience levels. We will make our code and dataset
publicly available to promote transparency and collaboration in research.
- Abstract(参考訳): マイクロ超音波(micro-US)は、従来の超音波の3.4倍の高解像度の29MHz超音波技術であり、MRIによる前立腺がんの診断に匹敵する精度を提供するが、低コストである。
正確な前立腺分画は前立腺体積測定、がん診断、前立腺生検、治療計画に不可欠である。
本稿では,マイクロus画像の自動的,高速,高精度な前立腺セグメンテーションのための深層学習手法を提案する。
前立腺と膀胱と尿道の境界が正中線にあるため、ミクロUSにおける前立腺のセグメンテーションは困難である。
本稿では,マルチスケールアノテーション誘導トランスフォーマ unet モデルである microsegnet について紹介する。
トレーニングプロセスでは、microsegnetは、専門家と非専門家のアノテーションが不一致を示す、セグメント化(分割)が難しい領域にフォーカスしている。
本研究では, ハード領域の画素に重みを割り当て, 容易領域の画素に低重みを割り当てるアノテーション誘導型クロスエントロピー損失を提案する。
55例のmicro-US画像を用いてモデルを訓練し,20例の評価を行った。
我々のMicroSegNetモデルでは、Dice係数0.942とHausdorff距離2.11mmを達成し、いくつかの最先端セグメンテーション法と、異なる経験レベルの3つのアノテータを上回りました。
コードとデータセットを公開して、研究における透明性とコラボレーションを促進するつもりです。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Towards Confident Detection of Prostate Cancer using High Resolution
Micro-ultrasound [7.826781688190151]
経直腸超音波ガイド下生検における前立腺癌の診断は困難である。
マイクロ超音波による高周波超音波イメージングの最近の進歩は、高分解能で組織イメージングの能力を劇的に高めている。
本研究の目的は,マイクロ超音波ガイド下前立腺癌生検を対象とする,堅牢な深層学習モデルの開発である。
論文 参考訳(メタデータ) (2022-07-21T14:00:00Z) - Comparison of automatic prostate zones segmentation models in MRI images
using U-net-like architectures [0.9786690381850356]
前立腺がんは世界で6番目に大きな死因である。
現在、腫瘍組織を含む関心領域(ROI)のセグメンテーションを専門医が手動で行う。
いくつかの研究は、磁気共鳴画像からROIの特徴を自動的に区分けし抽出するという課題に取り組んできた。
この研究で、6つのディープラーニングモデルを訓練し、ディジョン中央病院とカタルーニャ大学ポリテシカ校から取得したMRI画像のデータセットを用いて分析した。
論文 参考訳(メタデータ) (2022-07-19T18:00:41Z) - Learning to segment prostate cancer by aggressiveness from scribbles in
bi-parametric MRI [0.0]
弱いアノテーションに基づくMRIにおけるアグレッシブネスによる前立腺癌セグメンテーションの課題に対処する深層U-Netモデルを提案する。
トレーニングには6.35%のボクセルしか使用せず,完全教師付きベースラインにアプローチできることが示唆された。
コーエンのカッパスコアは弱いモデルでは 0.29 $pm$ 0.07 であり,ベースラインでは 0.32 $pm$ 0.05 である。
論文 参考訳(メタデータ) (2022-07-01T11:52:05Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - FocusNetv2: Imbalanced Large and Small Organ Segmentation with
Adversarial Shape Constraint for Head and Neck CT Images [82.48587399026319]
organ-at-risk (oars) は、健康な臓器の損傷を避けるために放射線治療計画において重要なステップである。
本研究では,この課題を解決するために,2段階の深層ニューラルネットワークであるFocusNetv2を提案する。
従来のFocusNetに加えて,小臓器に新たな対角的形状制約を導入し,推定小臓器形状と臓器形状との整合性を確保する。
論文 参考訳(メタデータ) (2021-04-05T04:45:31Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Deep learning in magnetic resonance prostate segmentation: A review and
a new perspective [4.453410156617238]
MR前立腺セグメンテーションにおける最先端のディープラーニングアルゴリズムについて概説する。
その限界と強みを議論することで、この分野に洞察を与えます。
MR前立腺セグメンテーションのための最適化された2次元U-Netを提案する。
論文 参考訳(メタデータ) (2020-11-16T08:58:38Z) - A weakly supervised registration-based framework for prostate
segmentation via the combination of statistical shape model and CNN [4.404555861424138]
前立腺の精密なセグメンテーションのための弱教師付き登録ベースフレームワークを提案する。
モデル変換, 形状制御パラメータ, 微調整ベクトルを予測するために, インセプションベースニューラルネットワーク(SSM-Net)を用いた。
入力画像から確率ラベルマップを予測するために残留U-net(ResU-Net)を用いた。
論文 参考訳(メタデータ) (2020-07-23T00:24:57Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z) - Deep Attentive Features for Prostate Segmentation in 3D Transrectal
Ultrasound [59.105304755899034]
本稿では,経直腸超音波(TRUS)画像における前立腺のセグメンテーションを改善するために,アテンションモジュールを備えた新しい3次元ディープニューラルネットワークを開発した。
我々のアテンションモジュールは、アテンション機構を利用して、異なるレイヤから統合されたマルチレベル特徴を選択的に活用する。
3次元TRUSボリュームに挑戦する実験結果から,本手法は良好なセグメンテーション性能が得られることが示された。
論文 参考訳(メタデータ) (2019-07-03T05:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。