論文の概要: Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data
- arxiv url: http://arxiv.org/abs/2509.00213v1
- Date: Fri, 29 Aug 2025 19:54:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.128956
- Title: Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data
- Title(参考訳): 超音波と臨床データを用いたPhylodes腫瘍分類のためのマルチモーダルディープラーニング
- Authors: Farhan Fuad Abir, Abigail Elliott Daly, Kyle Anderman, Tolga Ozmen, Laura J. Brattain,
- Abstract要約: Phyllodes tumors (PTs) は良性線維腺腫との放射線学的類似性から術前の分類が困難である。
乳房超音波(BUS)画像を構造化された臨床データと統合して診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.29981448312652675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phyllodes tumors (PTs) are rare fibroepithelial breast lesions that are difficult to classify preoperatively due to their radiological similarity to benign fibroadenomas. This often leads to unnecessary surgical excisions. To address this, we propose a multimodal deep learning framework that integrates breast ultrasound (BUS) images with structured clinical data to improve diagnostic accuracy. We developed a dual-branch neural network that extracts and fuses features from ultrasound images and patient metadata from 81 subjects with confirmed PTs. Class-aware sampling and subject-stratified 5-fold cross-validation were applied to prevent class imbalance and data leakage. The results show that our proposed multimodal method outperforms unimodal baselines in classifying benign versus borderline/malignant PTs. Among six image encoders, ConvNeXt and ResNet18 achieved the best performance in the multimodal setting, with AUC-ROC scores of 0.9427 and 0.9349, and F1-scores of 0.6720 and 0.7294, respectively. This study demonstrates the potential of multimodal AI to serve as a non-invasive diagnostic tool, reducing unnecessary biopsies and improving clinical decision-making in breast tumor management.
- Abstract(参考訳): Phyllodes tumors (PTs) は稀な線維上皮性乳腺病変であり, 良性線維腺腫との放射線学的類似性から術前分類が困難である。
これはしばしば不要な外科的切除につながる。
そこで本研究では,乳房超音波(BUS)画像を構造化された臨床データと統合し,診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
我々は, 超音波画像から特徴を抽出・融合するデュアルブランチニューラルネットワークを開発し, PTが確認された81名の被験者から患者メタデータを抽出した。
クラス不均衡やデータ漏洩を防止するため,クラス認識サンプリングと5倍のクロスバリデーションを適用した。
以上の結果から,本手法は良性・良性・良性PTの分類において,単調なベースラインよりも優れていた。
6つの画像エンコーダのうち、ConvNeXtとResNet18は、AUC-ROCスコアが0.9427、0.9349、F1スコアが0.6720、0.7294で、マルチモーダル環境で最高のパフォーマンスを達成した。
本研究は、非侵襲的診断ツールとしてのマルチモーダルAIの可能性を示し、不必要な生検を減らし、乳がん管理における臨床的意思決定を改善する。
関連論文リスト
- Fusion-Based Brain Tumor Classification Using Deep Learning and Explainable AI, and Rule-Based Reasoning [0.0]
本研究では,MobileNetV2とDenseNet121畳み込みニューラルネットワーク(CNN)を組み合わせたアンサンブルに基づくディープラーニングフレームワークを提案する。
モデルは、階層化された5倍のクロスバリデーションプロトコルを使用して、Figshareデータセット上でトレーニングされ、評価された。
このアンサンブルは個々のCNNよりも優れた性能を示し、精度は91.7%、精度は91.9%、リコールは91.7%、F1スコアは91.6%だった。
論文 参考訳(メタデータ) (2025-08-09T08:46:36Z) - TopoTxR: A topology-guided deep convolutional network for breast parenchyma learning on DCE-MRIs [49.69047720285225]
そこで本研究では,乳房側葉構造をよりよく近似するために,マルチスケールのトポロジ構造を明示的に抽出する新しいトポロジカルアプローチを提案する。
VICTREファントム乳房データセットを用いてemphTopoTxRを実験的に検証した。
本研究の質的および定量的分析は,乳房組織における画像診断におけるトポロジカルな挙動を示唆するものである。
論文 参考訳(メタデータ) (2024-11-05T19:35:10Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Radiomics Boosts Deep Learning Model for IPMN Classification [3.4659499358648675]
膵管内乳頭粘液性腫瘍 (IPMN) の嚢胞は術前膵管病変であり,膵癌に進展する可能性がある。
本研究では,MRIスキャンからIPMNリスク分類のための新しいコンピュータ支援診断パイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-11T22:41:52Z) - Improved Prognostic Prediction of Pancreatic Cancer Using Multi-Phase CT
by Integrating Neural Distance and Texture-Aware Transformer [37.55853672333369]
本稿では, 異なる患者のCT像における腫瘍と血管の正確な関係を記述した, 学習可能なニューラル距離を提案する。
発達したリスクマーカーは, 術前因子の生存率の予測因子として最強であった。
論文 参考訳(メタデータ) (2023-08-01T12:46:02Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Translating automated brain tumour phenotyping to clinical neuroimaging [0.4199844472131921]
我々は、自動腫瘍分割モデルの比較忠実度を定量化するために最先端の手法を用いる。
深層学習セグメンテーションモデルは、データ不足時に腫瘍をうまく特徴づけ、コントラストを使わずに拡張組織を検出できる。
論文 参考訳(メタデータ) (2022-06-13T12:58:54Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Deep Orthogonal Fusion: Multimodal Prognostic Biomarker Discovery
Integrating Radiology, Pathology, Genomic, and Clinical Data [0.32622301272834525]
グリオーマ患者の生存率 (OS) を, 深層直交核融合モデルを用いて予測した。
このモデルは、MRI検査、生検に基づくモダリティ、臨床変数から得た情報を総合的なマルチモーダルリスクスコアに組み合わせることを学ぶ。
グリオーマ患者を臨床的サブセット内でOSにより明らかに層分けし、予後不良な臨床グレーディングと分子サブタイプにさらに粒度を付加する。
論文 参考訳(メタデータ) (2021-07-01T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。