論文の概要: A Foundation Model Framework for Multi-View MRI Classification of Extramural Vascular Invasion and Mesorectal Fascia Invasion in Rectal Cancer
- arxiv url: http://arxiv.org/abs/2505.18058v1
- Date: Fri, 23 May 2025 16:04:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.214449
- Title: A Foundation Model Framework for Multi-View MRI Classification of Extramural Vascular Invasion and Mesorectal Fascia Invasion in Rectal Cancer
- Title(参考訳): 直腸癌における胸膜外血管浸潤と中直腸間葉浸潤の多視点MRI分類のための基礎的モデルフレームワーク
- Authors: Yumeng Zhang, Zohaib Salahuddin, Danial Khan, Shruti Atul Mali, Henry C. Woodruff, Sina Amirrajab, Eduardo Ibor-Crespo, Ana Jimenez-Pastor, Luis Marti-Bonmati, Philippe Lambin,
- Abstract要約: 直腸癌では, 血管外浸潤 (EVI) と中腸間膜間膜浸潤 (MFI) が重要視される。
基礎モデルの特徴,調和,多視点融合は直腸MRIの診断性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 3.9216006287929086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Accurate MRI-based identification of extramural vascular invasion (EVI) and mesorectal fascia invasion (MFI) is pivotal for risk-stratified management of rectal cancer, yet visual assessment is subjective and vulnerable to inter-institutional variability. Purpose: To develop and externally evaluate a multicenter, foundation-model-driven framework that automatically classifies EVI and MFI on axial and sagittal T2-weighted MRI. Methods: This retrospective study used 331 pre-treatment rectal cancer MRI examinations from three European hospitals. After TotalSegmentator-guided rectal patch extraction, a self-supervised frequency-domain harmonization pipeline was trained to minimize scanner-related contrast shifts. Four classifiers were compared: ResNet50, SeResNet, the universal biomedical pretrained transformer (UMedPT) with a lightweight MLP head, and a logistic-regression variant using frozen UMedPT features (UMedPT_LR). Results: UMedPT_LR achieved the best EVI detection when axial and sagittal features were fused (AUC = 0.82; sensitivity = 0.75; F1 score = 0.73), surpassing the Chaimeleon Grand-Challenge winner (AUC = 0.74). The highest MFI performance was attained by UMedPT on axial harmonized images (AUC = 0.77), surpassing the Chaimeleon Grand-Challenge winner (AUC = 0.75). Frequency-domain harmonization improved MFI classification but variably affected EVI performance. Conventional CNNs (ResNet50, SeResNet) underperformed, especially in F1 score and balanced accuracy. Conclusion: These findings demonstrate that combining foundation model features, harmonization, and multi-view fusion significantly enhances diagnostic performance in rectal MRI.
- Abstract(参考訳): 背景: 直腸癌のリスク・ストラテライズド・マネージメントには, 正確なMRIによる血管浸潤(EVI)と直腸間膜ファシスタ浸潤(MFI)の同定が重要であるが, 視覚的評価は, 施設間変動に対して主観的かつ脆弱である。
目的: 軸方向および矢状T2強調MRIにおいて, EVI と MFI を自動分類する基盤モデル駆動型フレームワークの開発と外部評価を行う。
方法: 本研究は, 欧州の3病院で331例の術前直腸癌MRI検査を行った。
TotalSegmentator-guided rectal patch extractの後に、スキャナ関連コントラストシフトを最小限に抑えるために、自己教師付き周波数領域調和パイプラインを訓練した。
ResNet50, SeResNet, 軽量MLPヘッド付きユニバーサルバイオメディカル事前訓練トランス (UMedPT) , 凍結UMedPT特徴を用いたロジスティック回帰版 (UMedPT_LR) の4種類を比較した。
結果:UMedPT_LRは軸方向と矢状方向の特徴が融合した場合(AUC = 0.82; 感度 = 0.75; F1 スコア = 0.73)に最高のEVI検出を達成し、Chaimeleon Grand-Challenge の勝者(AUC = 0.74)を上回った。
最も高いMFI性能は、アキシアルハーモナイズドイメージ(AUC = 0.77)上のUMedPTで達成され、シャイメレオン・グランド・チャレンゲの勝者(AUC = 0.75)を上回った。
周波数領域調和はMFI分類を改善したが、可変にEVI性能に影響を及ぼした。
従来のCNN(ResNet50、SeResNet)は、特にF1スコアとバランスの取れた精度でパフォーマンスが低かった。
結論: 基礎モデルの特徴, 調和性, 多視点融合を組み合わせることで, 直腸MRIの診断性能が著しく向上することが示唆された。
関連論文リスト
- Explainable Anatomy-Guided AI for Prostate MRI: Foundation Models and In Silico Clinical Trials for Virtual Biopsy-based Risk Assessment [3.5408411348831232]
MRIによる前立腺癌(PCa)のリスク階層化のための,完全に自動化された,解剖学的に指導されたディープラーニングパイプラインを提案する。
パイプラインは、前立腺とそのゾーンを軸方向のT2強調MRI上にセグメント化するためのnnU-Netモジュール、オプションの解剖学的先行と臨床データで3Dパッチに微調整されたDiceedPT Swin Transformer基盤モデルに基づく分類モジュール、決定駆動画像領域をローカライズする反ファクトなヒートマップを生成するVAE-GANフレームワークの3つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2025-05-23T14:40:09Z) - UMambaAdj: Advancing GTV Segmentation for Head and Neck Cancer in MRI-Guided RT with UMamba and nnU-Net ResEnc Planner [0.04924932828166548]
頭頸部癌(HNC)に対する適応放射線療法においてMRIが重要な役割を担っている。
原発性腫瘍 (GTVp) とリンパ節 (GTVn) の両方を含む総腫瘍容積 (GTV) を正確に区分することは依然として困難である。
最近の2つのディープラーニングセグメンテーションの革新は、効果的に長距離依存関係をキャプチャするUMambaと、多段階残差ブロックによる特徴抽出を強化するnnU-Net Residual (ResEnc)の2つの大きな約束を示している。
論文 参考訳(メタデータ) (2024-10-16T18:26:27Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Pre-examinations Improve Automated Metastases Detection on Cranial MRI [36.39673740985943]
コントラスト強調T1強調画像における高感度MMの自動検出
診断成績は造影T1強調画像と術前MRIで得られた。
論文 参考訳(メタデータ) (2024-03-13T06:18:08Z) - Brain Tumor Radiogenomic Classification [1.8276368987462532]
2次分類によるグリオ芽腫のMGMTバイオマーカー状態の予測を目的としたRSNA-MICCAI脳腫瘍ラジオゲノミクス分類の試み
データセットはトレーニングセット、トレーニング中に使用された検証セット、最終評価時にのみ使用されるテストの3つの主要なコホートに分割される。
論文 参考訳(メタデータ) (2024-01-11T10:30:09Z) - Segmentation of glioblastomas in early post-operative multi-modal MRI
with deep neural networks [33.51490233427579]
手術前セグメンテーションのための2つの最先端ニューラルネットワークアーキテクチャをトレーニングした。
最高の成績は61%のDiceスコアで、最高の分類性能は80%のバランスの取れた精度で達成された。
予測セグメンテーションは、患者を残存腫瘍と全切除患者に正確に分類するために用いられる。
論文 参考訳(メタデータ) (2023-04-18T10:14:45Z) - Exploring contrast generalisation in deep learning-based brain MRI-to-CT
synthesis [0.0]
MRIプロトコルは、経時的に変化するか、または低品質のsCTをもたらすセンターによって異なる可能性がある。
ドメインランダム化(DR)は、脳sCT生成のためのDLモデルの一般化を増大させる。
論文 参考訳(メタデータ) (2023-03-17T18:45:05Z) - Perfusion imaging in deep prostate cancer detection from mp-MRI: can we
take advantage of it? [0.0]
深部神経アーキテクチャにおける灌流画像からの情報を統合するための戦略を評価する。
ダイナミックコントラスト造影MR検査からの灌流マップでは,PCa病変のセグメンテーションとグレーディング性能に正の影響が認められた。
論文 参考訳(メタデータ) (2022-07-06T07:55:46Z) - CAE-Transformer: Transformer-based Model to Predict Invasiveness of Lung
Adenocarcinoma Subsolid Nodules from Non-thin Section 3D CT Scans [36.093580055848186]
肺腺癌(LAUC)は近年最も多い疾患である。
肺結節の侵襲性に関するタイムリーかつ正確な知識は適切な治療計画をもたらし、不必要な手術や遅発手術のリスクを低減させる。
LAUCの浸潤度を評価し,予測するための主要な画像モダリティは胸部CTである。
本稿では、LAUCを分類するために、予測トランスフォーマーベースのフレームワーク「CAE-Transformer」を開発した。
論文 参考訳(メタデータ) (2021-10-17T04:37:24Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。