論文の概要: Two-stage MR Image Segmentation Method for Brain Tumors based on
Attention Mechanism
- arxiv url: http://arxiv.org/abs/2304.08072v1
- Date: Mon, 17 Apr 2023 08:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:05:29.203702
- Title: Two-stage MR Image Segmentation Method for Brain Tumors based on
Attention Mechanism
- Title(参考訳): 注意機構に基づく脳腫瘍の2段階mr画像分割法
- Authors: Li Zhu, Jiawei Jiang, Lin Lu, Jin Li
- Abstract要約: CycleGAN(CycleGAN)に基づく協調・空間的注意生成対向ネットワーク(CASP-GAN)を提案する。
ジェネレータの性能は、コーディネート・アテンション(CA)モジュールと空間アテンション(SA)モジュールを導入することで最適化される。
元の医用画像の構造情報と詳細な情報を抽出する能力は、所望の画像をより高品質に生成するのに役立つ。
- 参考スコア(独自算出の注目度): 25.598854228416553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal magnetic resonance imaging (MRI) can reveal different patterns of
human tissue and is crucial for clinical diagnosis. However, limited by cost,
noise and manual labeling, obtaining diverse and reliable multimodal MR images
remains a challenge. For the same lesion, different MRI manifestations have
great differences in background information, coarse positioning and fine
structure. In order to obtain better generation and segmentation performance, a
coordination-spatial attention generation adversarial network (CASP-GAN) based
on the cycle-consistent generative adversarial network (CycleGAN) is proposed.
The performance of the generator is optimized by introducing the Coordinate
Attention (CA) module and the Spatial Attention (SA) module. The two modules
can make full use of the captured location information, accurately locating the
interested region, and enhancing the generator model network structure. The
ability to extract the structure information and the detailed information of
the original medical image can help generate the desired image with higher
quality. There exist some problems in the original CycleGAN that the training
time is long, the parameter amount is too large, and it is difficult to
converge. In response to this problem, we introduce the Coordinate Attention
(CA) module to replace the Res Block to reduce the number of parameters, and
cooperate with the spatial information extraction network above to strengthen
the information extraction ability. On the basis of CASP-GAN, an attentional
generative cross-modality segmentation (AGCMS) method is further proposed. This
method inputs the modalities generated by CASP-GAN and the real modalities into
the segmentation network for brain tumor segmentation. Experimental results
show that CASP-GAN outperforms CycleGAN and some state-of-the-art methods in
PSNR, SSMI and RMSE in most tasks.
- Abstract(参考訳): マルチモーダルMRI(Multimodal magnetic resonance imaging)は、ヒト組織の異なるパターンを明らかにし、臨床診断に不可欠である。
しかしながら、コスト、ノイズ、手動ラベリングによって制限され、多様で信頼性の高いマルチモーダルmr画像を得ることは課題である。
同じ病変に対して、異なるMRI像は背景情報、粗い位置決め、微細構造に大きな違いがある。
よりよい生成・分節化性能を得るために,サイクル一貫性のある生成型逆ネットワーク(cyclegan)に基づく協調空間的注意生成逆ネットワーク(casp-gan)を提案する。
ジェネレータの性能は、コーディネート・アテンション(CA)モジュールと空間アテンション(SA)モジュールを導入することで最適化される。
2つのモジュールは、キャプチャされた位置情報をフル活用し、関心領域を正確に特定し、ジェネレータモデルネットワーク構造を拡張できる。
元の医用画像の構造情報と詳細な情報を抽出する能力は、所望の画像をより高品質に生成するのに役立つ。
元のサイクルガンには、トレーニング時間が長く、パラメータ量が大きすぎ、収束が難しいという問題が存在する。
この問題に対する対策として,Res Blockの代替となるCoordinate Attention(CA)モジュールを導入し,パラメータ数を削減し,上記の空間情報抽出ネットワークと連携して情報抽出能力を強化する。
さらにcasp-ganに基づいて,注意型生成的クロスモダリティセグメンテーション(agcms)法を提案する。
CASP-GANによって生成されたモダリティと実際のモダリティを脳腫瘍セグメンテーションのためのセグメンテーションネットワークに入力する。
実験の結果, CASP-GANはPSNR, SSMI, RMSEにおいてCycleGANや最先端手法よりも優れていた。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Modality-agnostic Domain Generalizable Medical Image Segmentation by Multi-Frequency in Multi-Scale Attention [1.1155836879100416]
医用画像セグメンテーションのためのModality-Agnostic Domain Generalizable Network (MADGNet)を提案する。
MFMSAブロックは空間的特徴抽出の過程を洗練させる。
E-SDMは、深い監督を伴うマルチタスク学習における情報損失を軽減する。
論文 参考訳(メタデータ) (2024-05-10T07:34:36Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Large-Kernel Attention for 3D Medical Image Segmentation [14.76728117630242]
本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-19T16:32:55Z) - Category Guided Attention Network for Brain Tumor Segmentation in MRI [6.685945448824158]
カテゴリー案内注意U-Net(CGA U-Net)という新しいセグメンテーションネットワークを提案する。
本モデルでは,より正確かつ安定した特徴写像の長距離依存性を計算コストを伴わずに捉えることのできる,注目機構に基づくスーパービジョンアテンションモジュール(SAM)を設計する。
BraTS 2019データセットの実験的結果は、提案手法がセグメント化性能と計算複雑性の両方において最先端のアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T09:22:29Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Max-Fusion U-Net for Multi-Modal Pathology Segmentation with Attention
and Dynamic Resampling [13.542898009730804]
関連するアルゴリズムの性能は、マルチモーダル情報の適切な融合によって大きく影響を受ける。
We present the Max-Fusion U-Net that achieve a improve pathology segmentation performance。
マルチシーケンスCMRデータセットを併用したMyoPS(Myocardial pathology segmentation)を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-09-05T17:24:23Z) - Multi-Modality Pathology Segmentation Framework: Application to Cardiac
Magnetic Resonance Images [3.5354617056939874]
本研究は,多モードCMR画像に基づく自動カスケード診断セグメンテーションフレームワークを提案する。
主に、解剖学的構造セグメンテーションネットワーク(ASSN)と病理学的領域セグメンテーションネットワーク(PRSN)の2つのニューラルネットワークで構成されている。
論文 参考訳(メタデータ) (2020-08-13T09:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。