論文の概要: Parotid Gland MRI Segmentation Based on Swin-Unet and Multimodal Images
- arxiv url: http://arxiv.org/abs/2206.03336v1
- Date: Tue, 7 Jun 2022 14:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 19:44:56.802447
- Title: Parotid Gland MRI Segmentation Based on Swin-Unet and Multimodal Images
- Title(参考訳): Swin-Unet と Multimodal 画像を用いた耳下腺MRI
- Authors: Yin Dai, Zi'an Xu, Fayu Liu, Siqi Li, Sheng Liu, Lifu Shi, Jun Fu
- Abstract要約: 耳下腺腫瘍は頭頸部腫瘍の約2%から10%を占める。
ディープラーニングの手法は急速に発展しており、特にTransformerはコンピュータビジョンにおける従来の畳み込みニューラルネットワークに勝っている。
テストセットのモデルのDSCは88.63%、MPAは99.31%、MIoUは83.99%、HDは3.04であった。
- 参考スコア(独自算出の注目度): 7.934520786027202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parotid gland tumors account for approximately 2% to 10% of head and neck
tumors. Preoperative tumor localization, differential diagnosis, and subsequent
selection of appropriate treatment for parotid gland tumors is critical.
However, the relative rarity of these tumors and the highly dispersed tissue
types have left an unmet need for a subtle differential diagnosis of such
neoplastic lesions based on preoperative radiomics. Recently, deep learning
methods have developed rapidly, especially Transformer beats the traditional
convolutional neural network in computer vision. Many new Transformer-based
networks have been proposed for computer vision tasks. In this study,
multicenter multimodal parotid gland MRI images were collected. The Swin-Unet
which was based on Transformer was used. MRI images of STIR, T1 and T2
modalities were combined into a three-channel data to train the network. We
achieved segmentation of the region of interest for parotid gland and tumor.
The DSC of the model on the test set was 88.63%, MPA was 99.31%, MIoU was
83.99%, and HD was 3.04. Then a series of comparison experiments were designed
in this paper to further validate the segmentation performance of the
algorithm.
- Abstract(参考訳): 耳下腺腫瘍は頭頸部腫瘍の約2%から10%を占める。
耳下腺腫瘍に対する術前の腫瘍局在, 鑑別診断, その後の適切な治療法の選択は重要である。
しかし,これらの腫瘍と高度に分散した組織型の相対的悪性度は,術前の放射線検査による腫瘍病変の微妙な鑑別の必要性を欠いている。
近年、ディープラーニング手法が急速に発展し、特にTransformerはコンピュータビジョンにおける従来の畳み込みニューラルネットワークに勝っている。
コンピュータビジョンタスクのために多くの新しいトランスフォーマーベースのネットワークが提案されている。
本研究では,多心性耳下腺MRI画像の収集を行った。
TransformerをベースとしたSwin-Unetが使用された。
STIR, T1, T2モダリティのMRI像を3チャンネルデータに組み合わせてネットワークを訓練した。
耳下腺と腫瘍に対する関心領域のセグメンテーションが得られた。
テストセットのモデルのDSCは88.63%、MPAは99.31%、MIoUは83.99%、HDは3.04であった。
そこで本論文では,アルゴリズムのセグメンテーション性能をさらに検証するために,一連の比較実験を行った。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Lumbar Spine Tumor Segmentation and Localization in T2 MRI Images Using AI [2.9746083684997418]
本研究は, 脊椎腫瘍の領域分割と局所化をAIアプローチで自動化することを目的とした, 新たなデータ拡張手法を提案する。
畳み込みニューラルネットワーク(CNN)アーキテクチャは、腫瘍の分類に用いられている。3次元の椎骨分割とラベル付け技術は、腰椎の腫瘍の正確な位置を特定するのに役立つ。
その結果, 腫瘍分節の99%の精度, 腫瘍分類の98%の精度, 腫瘍局在の99%の精度が得られた。
論文 参考訳(メタデータ) (2024-05-07T05:55:50Z) - Self-calibrated convolution towards glioma segmentation [45.74830585715129]
我々は,nnU-Netネットワークの異なる部分における自己校正畳み込みを評価し,スキップ接続における自己校正加群が,拡張腫瘍と腫瘍コアセグメンテーションの精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-02-07T19:51:13Z) - A Deep Learning Approach for Brain Tumor Classification and Segmentation
Using a Multiscale Convolutional Neural Network [0.0]
本稿では,Deep Convolutional Neural Networkを用いた完全自動脳腫瘍分割分類モデルを提案する。
腫瘍の分類精度は0.973で, 同一のデータベースを用いた他の手法よりも高い値を示した。
論文 参考訳(メタデータ) (2024-02-04T17:47:03Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Brain MRI study for glioma segmentation using convolutional neural
networks and original post-processing techniques with low computational
demand [0.6719751155411076]
グリオーマは、高度に異質な組織学的サブリージョンからなる脳腫瘍である。
グリオーマの多様性が高いため、このセグメンテーション・タスクは現在、医用画像解析の分野で大きな課題となっている。
畳み込みニューラルネットワーク(CNN)の設計と応用に基づくセグメンテーション手法と,計算負荷の低い元の後処理技術を組み合わせたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2022-07-15T17:34:05Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Feature-enhanced Generation and Multi-modality Fusion based Deep Neural
Network for Brain Tumor Segmentation with Missing MR Modalities [2.867517731896504]
主な問題は、すべてのMRIが常に臨床検査で利用できるわけではないことである。
今回我々は1つ以上のモダリティが欠落した場合に新しい脳腫瘍分節ネットワークを提案する。
提案ネットワークは,機能強化ジェネレータ,相関制約ブロック,セグメンテーションネットワークの3つのサブネットワークで構成されている。
論文 参考訳(メタデータ) (2021-11-08T10:59:40Z) - Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data [2.2515303891664358]
マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
論文 参考訳(メタデータ) (2020-08-28T09:15:42Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。