論文の概要: Large Kernel MedNeXt for Breast Tumor Segmentation and Self-Normalizing Network for pCR Classification in Magnetic Resonance Images
- arxiv url: http://arxiv.org/abs/2508.01831v1
- Date: Sun, 03 Aug 2025 16:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.075596
- Title: Large Kernel MedNeXt for Breast Tumor Segmentation and Self-Normalizing Network for pCR Classification in Magnetic Resonance Images
- Title(参考訳): 乳腺腫瘍分離のための大カーネルMedNeXtと磁気共鳴画像におけるpCR分類のための自己Normalizing Network
- Authors: Toufiq Musah,
- Abstract要約: 我々は,3x3x3から5x5x5までの受容場を拡大する2段階のトレーニング戦略を備えた大規模カーネルMedNeXtアーキテクチャを採用している。
pCR分類では,予測セグメンテーションから抽出した放射能特性に基づいて自己正規化ネットワーク(SNN)を訓練した。
以上の結果から,より大きな受容野と放射能による分類の利点が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate breast tumor segmentation in dynamic contrast-enhanced magnetic resonance imaging (DCE-MRI) is important for downstream tasks such as pathological complete response (pCR) assessment. In this work, we address both segmentation and pCR classification using the large-scale MAMA-MIA DCE-MRI dataset. We employ a large-kernel MedNeXt architecture with a two-stage training strategy that expands the receptive field from 3x3x3 to 5x5x5 kernels using the UpKern algorithm. This approach allows stable transfer of learned features to larger kernels, improving segmentation performance on the unseen validation set. An ensemble of large-kernel models achieved a Dice score of 0.67 and a normalized Hausdorff Distance (NormHD) of 0.24. For pCR classification, we trained a self-normalizing network (SNN) on radiomic features extracted from the predicted segmentations and first post-contrast DCE-MRI, reaching an average balanced accuracy of 57\%, and up to 75\% in some subgroups. Our findings highlight the benefits of combining larger receptive fields and radiomics-driven classification while motivating future work on advanced ensembling and the integration of clinical variables to further improve performance and generalization. Code: https://github.com/toufiqmusah/caladan-mama-mia.git
- Abstract(参考訳): ダイナミックコントラスト強調MRI(DCE-MRI)における乳腺腫瘍の正確なセグメンテーションは,病的完全反応(pCR)評価などの下流業務において重要である。
本研究では,大規模なMAMA-MIA DCE-MRIデータセットを用いて,セグメント分類とpCR分類の両方に対処する。
我々は、UpKernアルゴリズムを用いて、3x3x3から5x5x5カーネルへの受容場を拡大する2段階のトレーニング戦略を備えた大規模カーネルMedNeXtアーキテクチャを採用している。
このアプローチにより、学習した機能をより大きなカーネルに安定した転送が可能となり、目に見えない検証セットでのセグメンテーション性能が向上する。
大型カーネルモデルのアンサンブルはDiceスコア0.67、正規化されたHausdorff Distance(NormHD)0.24を達成した。
pCR分類では,予測セグメンテーションと第1コントラストDCE-MRIから抽出した放射能特性から自己正規化ネットワーク(SNN)を訓練し,平均平衡精度57\%,いくつかのサブグループで75\%に達した。
本研究は, より大型の受容野と放射能による分類を併用し, 高度なアンサンブルと臨床変数の統合を推進し, さらなる性能向上と一般化を図ることのメリットを浮き彫りにしている。
コード:https://github.com/toufiqmusah/caladan-ma-mia.git
関連論文リスト
- Automated MRI Tumor Segmentation using hybrid U-Net with Transformer and Efficient Attention [0.7456526005219317]
癌は異常な増殖であり、局所的に浸潤し、遠くの臓器に転移する可能性がある。
最近のAIベースのセグメンテーションモデルは一般的に、大規模な公開データセットでトレーニングされている。
本研究は,AI腫瘍セグメンテーションモデルを病院ソフトウェアに直接組み込んで,効率的な腫瘍治療計画と実施を行う。
論文 参考訳(メタデータ) (2025-06-18T15:36:37Z) - Improving the U-Net Configuration for Automated Delineation of Head and Neck Cancer on MRI [0.0]
MRIにおける腫瘍体積のセグメンテーションは困難で時間を要するプロセスである。
本研究は,頭部および頸部腫瘍のMRI画像における自動デライン化へのアプローチを示す。
本研究の目的は,医学的セグメンテーションタスクで一般的に使用される構成の改善を提案することである。
論文 参考訳(メタデータ) (2025-01-09T10:22:35Z) - KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - DG-TTA: Out-of-domain Medical Image Segmentation through Augmentation and Descriptor-driven Domain Generalization and Test-Time Adaptation [43.842694540544194]
ドメイン外の画像に事前訓練された深層学習セグメンテーションモデルを適用すると、品質の不足を予測できる。
本研究では、拡張とともに強力な一般化記述子を用いて、ドメイン一般化事前学習とテスト時間適応を実現することを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - FCN-Transformer Feature Fusion for Polyp Segmentation [12.62213319797323]
大腸内視鏡は大腸癌の早期発見のための金標準法として広く認められている。
大腸内視鏡画像におけるポリープのマニュアルセグメンテーションは時間を要する。
ポリプセグメンテーションの自動化におけるディープラーニングの利用が重要になっている。
論文 参考訳(メタデータ) (2022-08-17T15:31:06Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Fully Automated 3D Segmentation of MR-Imaged Calf Muscle Compartments:
Neighborhood Relationship Enhanced Fully Convolutional Network [6.597152960878372]
FilterNetは新しい完全畳み込みネットワーク(FCN)であり、個々のふくらはぎの筋肉の区画分割にエッジ対応の制約を埋め込む。
FCNは健常者10名, 疾患者30名のT1強調MRI像を4倍のクロスバリデーションで評価した。
論文 参考訳(メタデータ) (2020-06-21T22:53:58Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。