論文の概要: A 3D Multi-Style Cross-Modality Segmentation Framework for Segmenting
Vestibular Schwannoma and Cochlea
- arxiv url: http://arxiv.org/abs/2311.11578v1
- Date: Mon, 20 Nov 2023 07:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:42:14.112545
- Title: A 3D Multi-Style Cross-Modality Segmentation Framework for Segmenting
Vestibular Schwannoma and Cochlea
- Title(参考訳): 前庭神経癌とコクリーの分離のための3次元多次元クロスモーダルセグメンテーションフレームワーク
- Authors: Yuzhou Zhuang
- Abstract要約: CrossMoDA2023の課題は、ラベル付きceT1スキャンを利用することで、未ラベルのhrT2スキャンの前庭のシュワンノーマとコクリー領域を分割することである。
本稿では,多言語翻訳と自己学習のセグメンテーションフェーズを含む3次元多言語間セグメンテーションフレームワークを提案する。
提案手法は,CrossMoDA2023検証データセット上で,平均DSC値を72.78%,80.64%とする有望な結果が得られる。
- 参考スコア(独自算出の注目度): 2.2209333405427585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The crossMoDA2023 challenge aims to segment the vestibular schwannoma
(sub-divided into intra- and extra-meatal components) and cochlea regions of
unlabeled hrT2 scans by leveraging labeled ceT1 scans. In this work, we
proposed a 3D multi-style cross-modality segmentation framework for the
crossMoDA2023 challenge, including the multi-style translation and
self-training segmentation phases. Considering heterogeneous distributions and
various image sizes in multi-institutional scans, we first utilize the min-max
normalization, voxel size resampling, and center cropping to obtain fixed-size
sub-volumes from ceT1 and hrT2 scans for training. Then, we perform the
multi-style image translation phase to overcome the intensity distribution
discrepancy between unpaired multi-modal scans. Specifically, we design three
different translation networks with 2D or 2.5D inputs to generate multi-style
and realistic target-like volumes from labeled ceT1 volumes. Finally, we
perform the self-training volumetric segmentation phase in the target domain,
which employs the nnU-Net framework and iterative self-training method using
pseudo-labels for training accurate segmentation models in the unlabeled target
domain. On the crossMoDA2023 validation dataset, our method produces promising
results and achieves the mean DSC values of 72.78% and 80.64% and ASSD values
of 5.85 mm and 0.25 mm for VS tumor and cochlea regions, respectively.
Moreover, for intra- and extra-meatal regions, our method achieves the DSC
values of 59.77% and 77.14%, respectively.
- Abstract(参考訳): CrossMoDA2023の課題は、ラベル付きceT1スキャンを利用することで、前庭のスワンノーマ(肉眼内成分と外成分にサブ分割)と未ラベルのhrT2スキャンのコチェリー領域を分割することである。
本研究では,クロスモダ2023チャレンジのための3次元マルチスタイルクロスモダリティセグメンテーションフレームワークを提案し,マルチスタイル翻訳と自己学習セグメンテーションフェーズについて述べる。
多施設スキャンにおける異種分布と画像サイズを考慮して,まずmin-max正規化,voxelサイズ再サンプリング,センタクロッピングを用いて,cet1およびhrt2スキャンから定サイズのサブボリュームを得る。
そして、未ペアマルチモーダルスキャン間の強度分布差を克服するために、マルチスタイル画像翻訳フェーズを実行する。
具体的には、2Dまたは2.5D入力を持つ3つの異なる翻訳ネットワークを設計し、ラベル付きceT1ボリュームからマルチスタイルでリアルなターゲットライクなボリュームを生成する。
最後に、nU-Netフレームワークと擬似ラベルを用いた反復的自己学習手法を用いて、未ラベル対象領域における正確なセグメンテーションモデルを訓練するターゲット領域における自己学習ボリュームセグメンテーションフェーズを実行する。
クロスモダ2023バリデーションデータセットでは有望な結果が得られ,vs腫瘍領域では72.78%,80.64%で平均dsc値,vs腫瘍領域では5.85mmと0.25mmのasd値がそれぞれ達成された。
また, 平均域内および外領域では, それぞれ59.77%, 77.14%のdsc値が得られた。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea [7.7150383247700605]
CrossMoDAの課題は、未ラベル高分解能T2スキャンで前庭神経癌(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本稿では,データ拡張とハイブリッド畳み込みネットワークを用いた非対向型クロスモーダルセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T01:15:33Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - CrossMoDA 2021 challenge: Benchmark of Cross-Modality Domain Adaptation
techniques for Vestibular Schwnannoma and Cochlea Segmentation [43.372468317829004]
ドメイン適応(DA)は、最近、医療画像コミュニティにおいて大きな関心を集めている。
これらの制限に対処するため、クロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)という課題が組織された。
CrossMoDAは、教師なしのクロスモダリティDAのための、最初の大規模でマルチクラスのベンチマークである。
論文 参考訳(メタデータ) (2022-01-08T14:00:34Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Joint Semi-supervised 3D Super-Resolution and Segmentation with Mixed
Adversarial Gaussian Domain Adaptation [13.477290490742224]
医用画像の高解像度化は、画像の解像度を向上させることを目的としているが、従来は低解像度データセットの特徴に基づいて訓練されている。
本稿では,画像とそのラベルの同時超解像を行う半教師付きマルチタスク生成対向ネットワーク(Gemini-GAN)を提案する。
提案手法は, 成人1,331人, 成人205人のトランスナショナル多民族集団に対して広く評価された。
論文 参考訳(メタデータ) (2021-07-16T15:42:39Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。