論文の概要: Automatic Segmentation of the Prostate on 3D Trans-rectal Ultrasound
Images using Statistical Shape Models and Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2106.09662v1
- Date: Thu, 17 Jun 2021 17:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 18:17:12.836480
- Title: Automatic Segmentation of the Prostate on 3D Trans-rectal Ultrasound
Images using Statistical Shape Models and Convolutional Neural Networks
- Title(参考訳): 統計的形状モデルと畳み込みニューラルネットワークを用いた3次元経直腸超音波画像における前立腺の自動分離
- Authors: Golnoosh Samei, Davood Karimi, Claudia Kesch, Septimiu Salcudean
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)と統計的形状モデル(SSM)を用いて,経直腸超音波(TRUS)画像のデータセット上に前立腺を分割することを提案する。
TRUSは軟組織コントラストが限られており、前立腺のセグメンテーションが困難である。
- 参考スコア(独自算出の注目度): 3.9121134770873733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we propose to segment the prostate on a challenging dataset of
trans-rectal ultrasound (TRUS) images using convolutional neural networks
(CNNs) and statistical shape models (SSMs). TRUS is commonly used for a number
of image-guided interventions on the prostate. Fast and accurate segmentation
on the organ in these images is crucial to planning and fusion with other
modalities such as magnetic resonance images (MRIs) . However, TRUS has limited
soft tissue contrast and signal to noise ratio which makes the task of
segmenting the prostate challenging and subject to inter-observer and
intra-observer variability. This is especially problematic at the base and apex
where the gland boundary is hard to define. In this paper, we aim to tackle
this problem by taking advantage of shape priors learnt on an MR dataset which
has higher soft tissue contrast allowing the prostate to be contoured more
accurately. We use this shape prior in combination with a prostate tissue
probability map computed by a CNN for segmentation.
- Abstract(参考訳): 本研究では,畳み込みニューラルネットワーク (cnns) と統計形状モデル (ssms) を用いて, 難治な経直腸超音波 (trus) 画像データセット上で前立腺を分割する手法を提案する。
TRUSは、多くの画像誘導による前立腺への介入に用いられる。
これらの画像における臓器の高速かつ正確なセグメンテーションは、磁気共鳴画像(MRI)などの他のモダリティとの計画と融合に不可欠である。
しかしながら、trusは軟組織コントラストと信号対ノイズ比が限られており、前立腺を分割するのが困難であり、オブザーバ間およびオブザーバ内変動の対象となる。
これは腺の境界が定義が難しい基底と頂点において特に問題となる。
本稿では,前立腺をより正確に構成できる高い軟組織コントラストを有するMRデータセットで学習した形状の事前情報を利用して,この問題に対処することを目的とする。
CNNによって計算された前立腺組織確率マップと組み合わせて, この形状を用いる。
関連論文リスト
- Multi-modality transrectal ultrasound video classification for
identification of clinically significant prostate cancer [4.896561300855359]
臨床的に重要な前立腺癌(csPCa)のマルチモーダルTRUSビデオから分類するための枠組みを提案する。
提案するフレームワークは,512本のTRUSビデオを含む社内データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-02-14T07:06:30Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Abdominal Multi-Organ Segmentation Based on Feature Pyramid Network and
Spatial Recurrent Neural Network [2.8391355909797644]
特徴ピラミッドネットワーク(FPN)と空間リカレントニューラルネットワーク(SRNN)を組み合わせた新しい画像分割モデルを提案する。
我々は,FPNを用いて異なるスケールの解剖学的構造を抽出し,腹部超音波像の空間的特徴を抽出するためにSRNNをどのように実装したかについて議論した。
論文 参考訳(メタデータ) (2023-08-29T09:13:24Z) - Thoracic Cartilage Ultrasound-CT Registration using Dense Skeleton Graph [49.11220791279602]
一般的なアトラスから個々の患者への計画された経路を正確にマッピングすることは困難である。
アトラスから現在の設定へ計画されたパスを転送できるように、グラフベースの非厳密な登録を提案する。
論文 参考訳(メタデータ) (2023-07-07T18:57:21Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - FocalUNETR: A Focal Transformer for Boundary-aware Segmentation of CT
Images [6.616213497895369]
局所的な視覚特徴と大域的な文脈をCT画像から抽出する焦点変換器を用いた画像分割アーキテクチャを提案する。
この設計により、他の競合手法よりもCTベースの前立腺分割作業の質が大幅に向上することが実証された。
論文 参考訳(メタデータ) (2022-10-06T20:06:24Z) - Hybrid Deep Neural Network for Brachial Plexus Nerve Segmentation in
Ultrasound Images [0.0764671395172401]
超音波ガイド下局所麻酔(UGRA)は鎖骨外科手術後の腕神経叢(BP)に応用できる。
超音波画像からのBPの同定は、訓練された専門家にとっても困難である。
超音波画像中のBP神経領域を分割するための分類モデルとセグメンテーションモデルを組み合わせたハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2021-06-01T10:31:47Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z) - Deep Attentive Features for Prostate Segmentation in 3D Transrectal
Ultrasound [59.105304755899034]
本稿では,経直腸超音波(TRUS)画像における前立腺のセグメンテーションを改善するために,アテンションモジュールを備えた新しい3次元ディープニューラルネットワークを開発した。
我々のアテンションモジュールは、アテンション機構を利用して、異なるレイヤから統合されたマルチレベル特徴を選択的に活用する。
3次元TRUSボリュームに挑戦する実験結果から,本手法は良好なセグメンテーション性能が得られることが示された。
論文 参考訳(メタデータ) (2019-07-03T05:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。