論文の概要: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on
Micro-Ultrasound Images
- arxiv url: http://arxiv.org/abs/2305.19956v3
- Date: Thu, 25 Jan 2024 20:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:37:24.568727
- Title: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on
Micro-Ultrasound Images
- Title(参考訳): MicroSegNet: マイクロ超音波画像における前立腺分割の深層学習手法
- Authors: Hongxu Jiang, Muhammad Imran, Preethika Muralidharan, Anjali Patel,
Jake Pensa, Muxuan Liang, Tarik Benidir, Joseph R. Grajo, Jason P. Joseph,
Russell Terry, John Michael DiBianco, Li-Ming Su, Yuyin Zhou, Wayne G.
Brisbane, and Wei Shao
- Abstract要約: マイクロ超音波(micro-US)は、従来の超音波の3.4倍の高分解能を提供する新しい29MHz超音波技術である。
前立腺のミクロ-USへの分節は、中線における前立腺、膀胱、尿道間の人工物と不明瞭な境界のために困難である。
本稿では,これらの課題に対処するために設計されたマルチスケールアノテーション誘導変換器UNetモデルであるMicroSegNetを提案する。
- 参考スコア(独自算出の注目度): 10.10595151162924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that
provides 3-4 times higher resolution than traditional ultrasound, potentially
enabling low-cost, accurate diagnosis of prostate cancer. Accurate prostate
segmentation is crucial for prostate volume measurement, cancer diagnosis,
prostate biopsy, and treatment planning. However, prostate segmentation on
micro-US is challenging due to artifacts and indistinct borders between the
prostate, bladder, and urethra in the midline. This paper presents MicroSegNet,
a multi-scale annotation-guided transformer UNet model designed specifically to
tackle these challenges. During the training process, MicroSegNet focuses more
on regions that are hard to segment (hard regions), characterized by
discrepancies between expert and non-expert annotations. We achieve this by
proposing an annotation-guided binary cross entropy (AG-BCE) loss that assigns
a larger weight to prediction errors in hard regions and a lower weight to
prediction errors in easy regions. The AG-BCE loss was seamlessly integrated
into the training process through the utilization of multi-scale deep
supervision, enabling MicroSegNet to capture global contextual dependencies and
local information at various scales. We trained our model using micro-US images
from 55 patients, followed by evaluation on 20 patients. Our MicroSegNet model
achieved a Dice coefficient of 0.939 and a Hausdorff distance of 2.02 mm,
outperforming several state-of-the-art segmentation methods, as well as three
human annotators with different experience levels. Our code is publicly
available at https://github.com/mirthAI/MicroSegNet and our dataset is publicly
available at https://zenodo.org/records/10475293.
- Abstract(参考訳): micro-ultrasound (micro-us) は、従来の超音波より3-4倍高い解像度を提供し、前立腺癌の低コストで正確な診断を可能にする新しい29mhz超音波技術である。
正確な前立腺分画は前立腺体積測定、がん診断、前立腺生検、治療計画に不可欠である。
しかし, 前立腺, 膀胱, 尿道間の境界が不明瞭なため, マイクロusの前立腺分画は困難である。
本稿では,これらの課題に対処するために設計されたマルチスケールアノテーション誘導変換器UNetモデルであるMicroSegNetを提案する。
トレーニングプロセスでは、microsegnetは、専門家と非専門家のアノテーションの相違を特徴とする、(ハードな領域)セグメンテーションが難しい領域にフォーカスしている。
我々は、ハード領域における予測誤差に重みを割り当て、容易領域における予測誤差に低重みを割り当てるアノテーション誘導二元交叉エントロピー(AG-BCE)損失を提案する。
AG-BCEの損失は、マルチスケールの深層監視を利用することで、トレーニングプロセスにシームレスに統合され、MicroSegNetはグローバルなコンテキスト依存やローカル情報をさまざまなスケールでキャプチャできるようになりました。
55例のmicro-US画像を用いてモデルを訓練し,20例の評価を行った。
我々のMicroSegNetモデルはDice係数0.939とHausdorff距離2.02mmを達成し、いくつかの最先端セグメンテーション法、および経験レベルの異なる3つのアノテータを上回りました。
私たちのコードはhttps://github.com/mirthAI/MicroSegNetで公開されており、データセットはhttps://zenodo.org/records/10475293で公開されています。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Towards Confident Detection of Prostate Cancer using High Resolution
Micro-ultrasound [7.826781688190151]
経直腸超音波ガイド下生検における前立腺癌の診断は困難である。
マイクロ超音波による高周波超音波イメージングの最近の進歩は、高分解能で組織イメージングの能力を劇的に高めている。
本研究の目的は,マイクロ超音波ガイド下前立腺癌生検を対象とする,堅牢な深層学習モデルの開発である。
論文 参考訳(メタデータ) (2022-07-21T14:00:00Z) - Comparison of automatic prostate zones segmentation models in MRI images
using U-net-like architectures [0.9786690381850356]
前立腺がんは世界で6番目に大きな死因である。
現在、腫瘍組織を含む関心領域(ROI)のセグメンテーションを専門医が手動で行う。
いくつかの研究は、磁気共鳴画像からROIの特徴を自動的に区分けし抽出するという課題に取り組んできた。
この研究で、6つのディープラーニングモデルを訓練し、ディジョン中央病院とカタルーニャ大学ポリテシカ校から取得したMRI画像のデータセットを用いて分析した。
論文 参考訳(メタデータ) (2022-07-19T18:00:41Z) - Learning to segment prostate cancer by aggressiveness from scribbles in
bi-parametric MRI [0.0]
弱いアノテーションに基づくMRIにおけるアグレッシブネスによる前立腺癌セグメンテーションの課題に対処する深層U-Netモデルを提案する。
トレーニングには6.35%のボクセルしか使用せず,完全教師付きベースラインにアプローチできることが示唆された。
コーエンのカッパスコアは弱いモデルでは 0.29 $pm$ 0.07 であり,ベースラインでは 0.32 $pm$ 0.05 である。
論文 参考訳(メタデータ) (2022-07-01T11:52:05Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - FocusNetv2: Imbalanced Large and Small Organ Segmentation with
Adversarial Shape Constraint for Head and Neck CT Images [82.48587399026319]
organ-at-risk (oars) は、健康な臓器の損傷を避けるために放射線治療計画において重要なステップである。
本研究では,この課題を解決するために,2段階の深層ニューラルネットワークであるFocusNetv2を提案する。
従来のFocusNetに加えて,小臓器に新たな対角的形状制約を導入し,推定小臓器形状と臓器形状との整合性を確保する。
論文 参考訳(メタデータ) (2021-04-05T04:45:31Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Deep learning in magnetic resonance prostate segmentation: A review and
a new perspective [4.453410156617238]
MR前立腺セグメンテーションにおける最先端のディープラーニングアルゴリズムについて概説する。
その限界と強みを議論することで、この分野に洞察を与えます。
MR前立腺セグメンテーションのための最適化された2次元U-Netを提案する。
論文 参考訳(メタデータ) (2020-11-16T08:58:38Z) - A weakly supervised registration-based framework for prostate
segmentation via the combination of statistical shape model and CNN [4.404555861424138]
前立腺の精密なセグメンテーションのための弱教師付き登録ベースフレームワークを提案する。
モデル変換, 形状制御パラメータ, 微調整ベクトルを予測するために, インセプションベースニューラルネットワーク(SSM-Net)を用いた。
入力画像から確率ラベルマップを予測するために残留U-net(ResU-Net)を用いた。
論文 参考訳(メタデータ) (2020-07-23T00:24:57Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z) - Deep Attentive Features for Prostate Segmentation in 3D Transrectal
Ultrasound [59.105304755899034]
本稿では,経直腸超音波(TRUS)画像における前立腺のセグメンテーションを改善するために,アテンションモジュールを備えた新しい3次元ディープニューラルネットワークを開発した。
我々のアテンションモジュールは、アテンション機構を利用して、異なるレイヤから統合されたマルチレベル特徴を選択的に活用する。
3次元TRUSボリュームに挑戦する実験結果から,本手法は良好なセグメンテーション性能が得られることが示された。
論文 参考訳(メタデータ) (2019-07-03T05:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。