論文の概要: Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI
- arxiv url: http://arxiv.org/abs/2408.05803v1
- Date: Sun, 11 Aug 2024 15:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:27:01.085614
- Title: Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI
- Title(参考訳): DCE-MRIにおける乳腺腫瘍分離のための原型学習誘導ハイブリッドネットワーク
- Authors: Lei Zhou, Yuzhong Zhang, Jiadong Zhang, Xuejun Qian, Chen Gong, Kun Sun, Zhongxiang Ding, Xing Wang, Zhenhui Li, Zaiyi Liu, Dinggang Shen,
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 58.809276442508256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated breast tumor segmentation on the basis of dynamic contrast-enhancement magnetic resonance imaging (DCE-MRI) has shown great promise in clinical practice, particularly for identifying the presence of breast disease. However, accurate segmentation of breast tumor is a challenging task, often necessitating the development of complex networks. To strike an optimal trade-off between computational costs and segmentation performance, we propose a hybrid network via the combination of convolution neural network (CNN) and transformer layers. Specifically, the hybrid network consists of a encoder-decoder architecture by stacking convolution and decovolution layers. Effective 3D transformer layers are then implemented after the encoder subnetworks, to capture global dependencies between the bottleneck features. To improve the efficiency of hybrid network, two parallel encoder subnetworks are designed for the decoder and the transformer layers, respectively. To further enhance the discriminative capability of hybrid network, a prototype learning guided prediction module is proposed, where the category-specified prototypical features are calculated through on-line clustering. All learned prototypical features are finally combined with the features from decoder for tumor mask prediction. The experimental results on private and public DCE-MRI datasets demonstrate that the proposed hybrid network achieves superior performance than the state-of-the-art (SOTA) methods, while maintaining balance between segmentation accuracy and computation cost. Moreover, we demonstrate that automatically generated tumor masks can be effectively applied to identify HER2-positive subtype from HER2-negative subtype with the similar accuracy to the analysis based on manual tumor segmentation. The source code is available at https://github.com/ZhouL-lab/PLHN.
- Abstract(参考訳): ダイナミックコントラスト強調MRI(Dynamic contrast-enhancement magnetic resonance imaging, DCE-MRI)をベースとした乳腺腫瘍郭清の自動化は臨床,特に乳腺疾患の存在を同定する上で有望である。
しかし、乳腺腫瘍の正確な分節化は難しい課題であり、しばしば複雑なネットワークの発達を必要とする。
計算コストとセグメンテーション性能の最適トレードオフを実現するために,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
具体的には、ハイブリッドネットワークは、畳み込み層と畳み込み層を積み重ねたエンコーダ・デコーダアーキテクチャで構成されている。
効果的な3Dトランスフォーマーレイヤはエンコーダサブネットワーク後に実装され、ボトルネック機能間のグローバルな依存関係をキャプチャする。
ハイブリッドネットワークの効率を改善するために、デコーダ層とトランス層のために2つの並列エンコーダサブネットが設計されている。
ハイブリッドネットワークの識別能力をさらに高めるため, オンラインクラスタリングにより, カテゴリ指定した特徴を計算し, 学習指導型予測モジュールを提案する。
学習された全ての原型的特徴は、最終的に腫瘍マスク予測のためのデコーダの特徴と組み合わせられる。
プライベートおよびパブリックなDCE-MRIデータセットによる実験結果から,提案したハイブリッドネットワークは,セグメント化精度と計算コストのバランスを維持しつつ,最先端(SOTA)手法よりも優れた性能を実現することが示された。
さらに,HER2陰性サブタイプからHER2陽性サブタイプを同定するために,自動生成腫瘍マスクを効果的に適用できることを実証した。
ソースコードはhttps://github.com/ZhouL-lab/PLHN.comで入手できる。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Enhancing Motor Imagery Decoding in Brain Computer Interfaces using
Riemann Tangent Space Mapping and Cross Frequency Coupling [5.860347939369221]
運動画像(MI)は脳コンピュータインタフェース(BCI)の領域における重要な実験パラダイムである
本稿では,MI特徴量に関する表現品質と復号化能力を向上させるための新しい手法を提案する。
さらに特徴抽出と分類のために軽量畳み込みニューラルネットワークが使用され、クロスエントロピーとセンターロスの共同管理の下で動作している。
論文 参考訳(メタデータ) (2023-10-29T23:37:47Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - MaxViT-UNet: Multi-Axis Attention for Medical Image Segmentation [0.46040036610482665]
MaxViT-UNetは医療画像セグメンテーションのためのハイブリッドビジョントランス (CNN-Transformer) である。
提案するハイブリッドデコーダは,各復号段階における畳み込み機構と自己保持機構の両方のパワーを利用するように設計されている。
復号器の各段階における多軸自己アテンションの包含は、対象領域と背景領域の識別能力を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-15T07:23:54Z) - An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea [7.7150383247700605]
CrossMoDAの課題は、未ラベル高分解能T2スキャンで前庭神経癌(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本稿では,データ拡張とハイブリッド畳み込みネットワークを用いた非対向型クロスモーダルセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T01:15:33Z) - A Transformer-based Generative Adversarial Network for Brain Tumor
Segmentation [4.394247741333439]
マルチモダリティMRIで脳腫瘍を自動分割するトランスフォーマーを用いた生成対向ネットワークを提案する。
我々のアーキテクチャは、min-maxゲーム進行のトレーニングを行うジェネレータと識別器で構成されている。
私たちが設計した識別器はCNNベースのマルチスケールのL_1$損失ネットワークであり、医用セマンティックイメージセグメンテーションに有効であることが証明されている。
論文 参考訳(メタデータ) (2022-07-28T14:55:18Z) - Transformer based Generative Adversarial Network for Liver Segmentation [4.317557160310758]
本稿では,Transformer(s) とGenerative Adversarial Network (GAN) を組み合わせたハイブリッドアプローチを用いた新しいセグメンテーション手法を提案する。
我々のモデルは高いダイス係数0.9433、リコール0.9515、精度0.9376、その他のトランスフォーマーベースアプローチより優れていた。
論文 参考訳(メタデータ) (2022-05-21T19:55:43Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - CleftNet: Augmented Deep Learning for Synaptic Cleft Detection from
Brain Electron Microscopy [49.3704402041314]
本稿では,脳em画像からのシナプス裂検出を改善するために,cleftnetと呼ばれる新しい拡張深層学習モデルを提案する。
まず、機能拡張器とラベル拡張器と呼ばれる2つの新しいネットワークコンポーネントを提案し、機能とラベルを強化し、口蓋表現を改善します。
論文 参考訳(メタデータ) (2021-01-12T02:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。