論文の概要: CAT-Net: A Cross-Slice Attention Transformer Model for Prostate Zonal
Segmentation in MRI
- arxiv url: http://arxiv.org/abs/2203.15163v1
- Date: Tue, 29 Mar 2022 00:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 08:57:10.889921
- Title: CAT-Net: A Cross-Slice Attention Transformer Model for Prostate Zonal
Segmentation in MRI
- Title(参考訳): CAT-Net:MRIにおける前立腺偏位に対するクロススライス注意変換器モデル
- Authors: Alex Ling Yu Hung, Haoxin Zheng, Qi Miao, Steven S. Raman, Demetri
Terzopoulos, Kyunghyun Sung
- Abstract要約: 本稿では,トランスフォーマーモジュールを用いて,異なるスケールでクロススライス関係を体系的に学習する,新しいクロススライスアテンション機構を提案する。
実験により, 前立腺領域分割におけるクロススライス情報の収集が可能であることが確認された。
- 参考スコア(独自算出の注目度): 7.773931185385572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prostate cancer is the second leading cause of cancer death among men in the
United States. The diagnosis of prostate MRI often relies on the accurate
prostate zonal segmentation. However, state-of-the-art automatic segmentation
methods often fail to produce well-contained volumetric segmentation of the
prostate zones since certain slices of prostate MRI, such as base and apex
slices, are harder to segment than other slices. This difficulty can be
overcome by accounting for the cross-slice relationship of adjacent slices, but
current methods do not fully learn and exploit such relationships. In this
paper, we propose a novel cross-slice attention mechanism, which we use in a
Transformer module to systematically learn the cross-slice relationship at
different scales. The module can be utilized in any existing learning-based
segmentation framework with skip connections. Experiments show that our
cross-slice attention is able to capture the cross-slice information in
prostate zonal segmentation and improve the performance of current
state-of-the-art methods. Our method significantly improves segmentation
accuracy in the peripheral zone, such that the segmentation results are
consistent across all the prostate slices (apex, mid-gland, and base).
- Abstract(参考訳): 前立腺がんは、アメリカ合衆国における男性の2番目に多いがん死因である。
前立腺MRIの診断は、しばしば正確な前立腺帯分割に依存している。
しかし,前立腺MRIの特定のスライス(ベーススライスや頂点スライスなど)は,他のスライスよりもセグメント化が難しいため,最先端の自動セグメンテーション法では,前立腺領域の十分な容積セグメンテーションが得られないことが多い。
この難しさは、隣接するスライス間の交差スライス関係を考慮することで克服できるが、現在の手法ではそのような関係を完全に学習し活用することはできない。
本稿では,異なるスケールでクロススライス関係を体系的に学習するために,トランスフォーマーモジュールで使用する新しいクロススライスアテンション機構を提案する。
このモジュールは、スキップ接続を持つ既存の学習ベースのセグメンテーションフレームワークで利用できる。
実験により,前立腺領域分割におけるクロススライス情報を捕捉し,現在の最先端手法の性能を向上させることができることがわかった。
本手法は,すべての前立腺スライス(apex,mid-gland,base)において,セグメンテーション結果が整合するように周辺領域のセグメンテーション精度を大幅に向上させる。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Continual atlas-based segmentation of prostate MRI [2.17257168063257]
自然な画像分類のために設計された連続学習(CL)法は、しばしば基本的な品質基準に達しない。
我々は,プロトタイプを用いて高品質なセグメンテーションマスクを生成するアトラスベースのセグメンテーション手法であるAtlas Replayを提案する。
我々の結果は、Atlas Replayは堅牢であり、知識を維持しながら、まだ見つからない領域に対してうまく一般化していることを示している。
論文 参考訳(メタデータ) (2023-11-01T14:29:46Z) - A Localization-to-Segmentation Framework for Automatic Tumor
Segmentation in Whole-Body PET/CT Images [8.0523823243864]
本稿では,腫瘍の正確な分節化のための局在化・分節化フレームワーク(L2SNet)を提案する。
L2SNetは、まず、病変の局所化段階における可能性のある病変を局在させ、次いで、病変の分節フェーズにおけるセグメント化結果を形成するために位置手がかりを使用する。
全身FDG-PET/CTチャレンジデータセットにおけるMII自動病変を用いた実験により,本手法が競争力のある結果を示した。
論文 参考訳(メタデータ) (2023-09-11T13:39:15Z) - Assessing the performance of deep learning-based models for prostate
cancer segmentation using uncertainty scores [1.0499611180329804]
目的は前立腺がんの検出と診断のワークフローを改善することである。
最高性能モデルはアテンション R2U-Net で、連合(IoU)の平均インターセクションは76.3%、Dice similarity Coefficient(DSC)は全ゾーンのセグメンテーションの85%を達成している。
論文 参考訳(メタデータ) (2023-08-09T01:38:58Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Inconsistency-aware Uncertainty Estimation for Semi-supervised Medical
Image Segmentation [92.9634065964963]
我々は、不確実性推定と個別の自己学習戦略に基づいて、新しい半教師付きセグメンテーションモデル、すなわち保守的ラディカルネットワーク(CoraNet)を提案する。
現在の技術と比較すると、ColaNetは優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-10-17T08:49:33Z) - Self-transfer learning via patches: A prostate cancer triage approach
based on bi-parametric MRI [1.3934382972253603]
前立腺癌(PCa)は世界で2番目に多いがんである。
現在のPCa診断経路は、かなりの過剰診断のコストがかかり、不必要な治療とさらなる検査に繋がる。
臨床的に有意な (cS) 病変と非有意な (ncS) 病変を区別するためのパッチベースの事前訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-07-22T17:02:38Z) - Anatomy-guided Multimodal Registration by Learning Segmentation without
Ground Truth: Application to Intraprocedural CBCT/MR Liver Segmentation and
Registration [12.861503169117208]
マルチモーダル画像登録は、診断医療画像と画像誘導介入に多くの応用がある。
周術期獲得診断画像を周術期内環境に登録する能力は、周術期内腫瘍ターゲティングを改善する可能性がある。
対象のモダリティ基礎真理を含まないセグメンテーション学習のためのセグメンテーションネットワーク(APA2Seg-Net)に対する解剖学的保護ドメイン適応を提案する。
論文 参考訳(メタデータ) (2021-04-14T18:07:03Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。