論文の概要: An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea
- arxiv url: http://arxiv.org/abs/2211.14986v1
- Date: Mon, 28 Nov 2022 01:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:08:13.500222
- Title: An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea
- Title(参考訳): データ増補とハイブリッド畳み込みネットワークを用いた前庭神経節状神経節形成のための非ペア化クロスモダリティセグメンテーションフレームワーク
- Authors: Yuzhou Zhuang, Hong Liu, Enmin Song, Coskun Cetinkaya, and Chih-Cheng
Hung
- Abstract要約: CrossMoDAの課題は、未ラベル高分解能T2スキャンで前庭神経癌(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本稿では,データ拡張とハイブリッド畳み込みネットワークを用いた非対向型クロスモーダルセグメンテーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.7150383247700605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The crossMoDA challenge aims to automatically segment the vestibular
schwannoma (VS) tumor and cochlea regions of unlabeled high-resolution T2 scans
by leveraging labeled contrast-enhanced T1 scans. The 2022 edition extends the
segmentation task by including multi-institutional scans. In this work, we
proposed an unpaired cross-modality segmentation framework using data
augmentation and hybrid convolutional networks. Considering heterogeneous
distributions and various image sizes for multi-institutional scans, we apply
the min-max normalization for scaling the intensities of all scans between -1
and 1, and use the voxel size resampling and center cropping to obtain
fixed-size sub-volumes for training. We adopt two data augmentation methods for
effectively learning the semantic information and generating realistic target
domain scans: generative and online data augmentation. For generative data
augmentation, we use CUT and CycleGAN to generate two groups of realistic T2
volumes with different details and appearances for supervised segmentation
training. For online data augmentation, we design a random tumor signal
reducing method for simulating the heterogeneity of VS tumor signals.
Furthermore, we utilize an advanced hybrid convolutional network with
multi-dimensional convolutions to adaptively learn sparse inter-slice
information and dense intra-slice information for accurate volumetric
segmentation of VS tumor and cochlea regions in anisotropic scans. On the
crossMoDA2022 validation dataset, our method produces promising results and
achieves the mean DSC values of 72.47% and 76.48% and ASSD values of 3.42 mm
and 0.53 mm for VS tumor and cochlea regions, respectively.
- Abstract(参考訳): CrossMoDAの課題は、ラベル付き造影T1スキャンを利用して、ラベル付き高分解能T2スキャンで前庭神経腫瘍(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本研究では,データ拡張とハイブリッド畳み込みネットワークを用いた非ペア型クロスモダリティセグメンテーションフレームワークを提案する。
多施設スキャンにおける不均一分布と様々な画像サイズを考慮し、各スキャンの強度を-1から1に拡大するためにmin-max正規化を適用し、ボクセルサイズ再サンプリングと中心刈りを用いて訓練を行う。
我々は,意味情報を効果的に学習し,現実的な対象領域スキャンを生成するための2つのデータ拡張手法を採用した。
本研究では,CUTとCycleGANを用いて,教師付きセグメンテーショントレーニングのための詳細と外観の異なる2つの現実的なT2ボリュームを生成する。
オンラインデータ拡張のために,vs腫瘍信号の不均一性をシミュレートするランダム腫瘍信号低減法を考案する。
さらに,多次元畳み込みを伴う高度なハイブリッド畳み込みネットワークを用いて,異方性スキャンにおいてvs腫瘍と人工内耳領域の正確なボリュームセグメンテーションのために,スパース間スライス情報と高密度内スライス情報を適応的に学習する。
クロスモダ2022バリデーションデータセットでは有望な結果を示し,vs腫瘍領域では平均dsc値が72.47%,76.48%,asd値が3.42mmと0.53mmであった。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - A 3D Multi-Style Cross-Modality Segmentation Framework for Segmenting
Vestibular Schwannoma and Cochlea [2.2209333405427585]
CrossMoDA2023の課題は、ラベル付きceT1スキャンを利用することで、未ラベルのhrT2スキャンの前庭のシュワンノーマとコクリー領域を分割することである。
本稿では,多言語翻訳と自己学習のセグメンテーションフェーズを含む3次元多言語間セグメンテーションフレームワークを提案する。
提案手法は,CrossMoDA2023検証データセット上で,平均DSC値を72.78%,80.64%とする有望な結果が得られる。
論文 参考訳(メタデータ) (2023-11-20T07:29:33Z) - Tissue Segmentation of Thick-Slice Fetal Brain MR Scans with Guidance
from High-Quality Isotropic Volumes [52.242103848335354]
本稿では,高品位等方性ボリュームから学習した知識を高密度スライススキャンの正確な組織セグメント化のために効率的に伝達するC2DA-Netを提案する。
我々のC2DA-Netは、注釈のない厚いスライススキャンで組織分画をガイドするために、注釈付き等方性ボリュームの小さなセットを十分に利用できる。
論文 参考訳(メタデータ) (2023-08-13T12:51:15Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Semi-Supervised Hybrid Spine Network for Segmentation of Spine MR Images [14.190504802866288]
半教師付き複合脊椎ネットワーク (SSHSNet) という2段階のアルゴリズムを提案し, 同時椎体 (VBs) と椎間板 (IVDs) のセグメンテーションを実現する。
まず,2次元半監督型DeepLabv3+をクロス擬似監督を用いて構築し,スライス内特徴と粗いセグメンテーションを得た。
2段目では、3Dフル解像度のパッチベースのDeepLabv3+がスライス間情報を抽出するために構築された。
その結果,提案手法はデータ不均衡問題に対処する上で大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2022-03-23T02:57:14Z) - Shape-consistent Generative Adversarial Networks for multi-modal Medical
segmentation maps [10.781866671930857]
極めて限られたデータセットに対して合成心容積を用いたセグメンテーションネットワークを提案する。
提案手法は,モダリティ間で情報を共有するための3次元クロスモダリティ生成対向ネットワークに基づいている。
空間拡張を用いた場合,小さなデータセット上でのセグメンテーションの改善が可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T13:57:31Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。