論文の概要: A Large Model for Non-invasive and Personalized Management of Breast Cancer from Multiparametric MRI
- arxiv url: http://arxiv.org/abs/2408.12606v3
- Date: Fri, 04 Apr 2025 19:14:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:07:25.179931
- Title: A Large Model for Non-invasive and Personalized Management of Breast Cancer from Multiparametric MRI
- Title(参考訳): マルチパラメトリックMRIによる乳癌の非侵襲的, 個人的管理のための大規模モデル
- Authors: Luyang Luo, Mingxiang Wu, Mei Li, Yi Xin, Qiong Wang, Varut Vardhanabhuti, Winnie CW Chu, Zhenhui Li, Juan Zhou, Pranav Rajpurkar, Hao Chen,
- Abstract要約: 我々は,多パラメータMRI情報を統一構造内に組み込んだMOME(Mixix-of-modality-experts Model)を開発した。
MOMEは乳がんの診断における4人の放射線科医の成績と一致し、中等放射線科医より優れている。
- 参考スコア(独自算出の注目度): 19.252851972152957
- License:
- Abstract: Breast Magnetic Resonance Imaging (MRI) demonstrates the highest sensitivity for breast cancer detection among imaging modalities and is standard practice for high-risk women. Interpreting the multi-sequence MRI is time-consuming and prone to subjective variation. We develop a large mixture-of-modality-experts model (MOME) that integrates multiparametric MRI information within a unified structure, leveraging breast MRI scans from 5,205 female patients in China for model development and validation. MOME matches four senior radiologists' performance in identifying breast cancer and outperforms a junior radiologist. The model is able to reduce unnecessary biopsies in Breast Imaging-Reporting and Data System (BI-RADS) 4 patients, classify triple-negative breast cancer, and predict pathological complete response to neoadjuvant chemotherapy. MOME further supports inference with missing modalities and provides decision explanations by highlighting lesions and measuring modality contributions. To summarize, MOME exemplifies an accurate and robust multimodal model for noninvasive, personalized management of breast cancer patients via multiparametric MRI. Code is available at https://github.com/LLYXC/MOME/tree/main.
- Abstract(参考訳): 乳腺磁気共鳴画像(MRI)は、画像のモダリティの中で乳がん検出に最も感度が高いことを示し、高リスク女性には標準的な方法である。
マルチシーケンスMRIの解釈には時間がかかり、主観的変動が生じる。
我々は,中国の5,205人の女性患者の乳房MRIをモデル開発と検証に利用して,多パラメータMRI情報を統一構造に統合したMOME(Mixix-of-modality-experts model)を開発した。
MOMEは乳がんの診断における4人の放射線科医の成績と一致し、中等放射線科医より優れている。
このモデルでは、乳房イメージング・レポーティング・アンド・データ・システム(BI-RADS)4患者の不必要な生検を減らし、3重陰性乳癌を分類し、ネオアジュバント化学療法に対する病理学的完全反応を予測することができる。
MOMEはさらに、欠落したモダリティによる推論をサポートし、病変を強調し、モダリティの貢献を測定することで決定的な説明を提供する。
要約すると、MOMEは、マルチパラメトリックMRIによる乳がん患者の非侵襲的、パーソナライズドな管理のための正確で堅牢なマルチモーダルモデルを実証している。
コードはhttps://github.com/LLYXC/MOME/tree/mainで入手できる。
関連論文リスト
- Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - Using Multiparametric MRI with Optimized Synthetic Correlated Diffusion Imaging to Enhance Breast Cancer Pathologic Complete Response Prediction [71.91773485443125]
ネオアジュバント化学療法は乳癌の治療戦略として最近人気を集めている。
ネオアジュバント化学療法を推奨する現在のプロセスは、医療専門家の主観的評価に依存している。
本研究は, 乳癌の病理組織学的完全反応予測に最適化されたCDI$s$を応用することを検討した。
論文 参考訳(メタデータ) (2024-05-13T15:40:56Z) - Glioblastoma Tumor Segmentation using an Ensemble of Vision Transformers [0.0]
グリオ芽腫は最も攻撃的で致命的な脳腫瘍の1つである。
Brain Radiology Aided by Intelligent Neural NETworks (BRAINNET) は、堅牢な腫瘍セグメンテーションマスクを生成する。
論文 参考訳(メタデータ) (2023-11-09T18:55:27Z) - Leveraging Transformers to Improve Breast Cancer Classification and Risk
Assessment with Multi-modal and Longitudinal Data [3.982926115291704]
マルチモーダルトランス (MMT) はマンモグラフィーと超音波を相乗的に利用するニューラルネットワークである。
MMTは、現在の検査と以前の画像を比較することで、時間的組織変化を追跡する。
5年間のリスク予測では、MMTはAUROCの0.826を達成し、従来のマンモグラフィーベースのリスクモデルより優れている。
論文 参考訳(メタデータ) (2023-11-06T16:01:42Z) - Cancer-Net BCa-S: Breast Cancer Grade Prediction using Volumetric Deep
Radiomic Features from Synthetic Correlated Diffusion Imaging [82.74877848011798]
乳がんの流行は成長を続けており、2023年には米国で約30万人の女性に影響を及ぼした。
金標準のScarff-Bloom-Richardson(SBR)グレードは、化学療法に対する患者の反応を一貫して示すことが示されている。
本稿では,合成相関拡散(CDI$s$)画像を用いた乳がん鑑定における深層学習の有効性について検討する。
論文 参考訳(メタデータ) (2023-04-12T15:08:34Z) - A Multi-Institutional Open-Source Benchmark Dataset for Breast Cancer
Clinical Decision Support using Synthetic Correlated Diffusion Imaging Data [82.74877848011798]
Cancer-Net BCaは、乳がん患者の画像データであるボリュームCDI$s$の複数機関のオープンソースベンチマークデータセットである。
Cancer-Net BCaは、機械学習の進歩を加速し、がんと戦う臨床医を助ける、グローバルなオープンソースイニシアチブの一部として、一般公開されている。
論文 参考訳(メタデータ) (2023-04-12T05:41:44Z) - RADIFUSION: A multi-radiomics deep learning based breast cancer risk
prediction model using sequential mammographic images with image attention
and bilateral asymmetry refinement [0.36355629235144304]
本研究は, 画像注意放射能, ゲーティング機構, 左右非対称性に基づく微調整など, 様々な深層学習機構の重要性を強調した。
乳がんリスク評価のための強力なツールとして, RADIfusionが有用であることが示唆された。
論文 参考訳(メタデータ) (2023-04-01T08:18:13Z) - Enhancing Clinical Support for Breast Cancer with Deep Learning Models
using Synthetic Correlated Diffusion Imaging [66.63200823918429]
深層学習モデルを用いた乳癌に対する臨床支援の強化について検討した。
我々は、体積畳み込みニューラルネットワークを利用して、前処理コホートから深い放射能特徴を学習する。
提案手法は, グレードと処理後応答予測の両方において, より良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-11-10T03:02:12Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Deep-LIBRA: Artificial intelligence method for robust quantification of
breast density with independent validation in breast cancer risk assessment [2.0369879867185143]
現在の連邦法では、乳房検診中の女性全員の乳房密度の報告を義務付けている。
本稿では,デジタルマンモグラムから乳房比密度(PD)を推定する人工知能(AI)手法を提案する。
論文 参考訳(メタデータ) (2020-11-13T15:21:17Z) - CorrSigNet: Learning CORRelated Prostate Cancer SIGnatures from
Radiology and Pathology Images for Improved Computer Aided Diagnosis [1.63324350193061]
我々はMRIで前立腺癌を局所化する2段階自動モデルであるCorrSigNetを提案する。
まず,病理組織学的特徴と相関するがんのMRI所見を学習する。
第二に、このモデルは、学習した相関MRI機能を使用して、前立腺がんの局所化のために畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-07-31T23:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。