論文の概要: Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data
- arxiv url: http://arxiv.org/abs/2509.00213v2
- Date: Thu, 25 Sep 2025 14:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 18:43:23.23747
- Title: Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data
- Title(参考訳): 超音波と臨床データを用いたPhylodes腫瘍分類のためのマルチモーダルディープラーニング
- Authors: Farhan Fuad Abir, Abigail Elliott Daly, Kyle Anderman, Tolga Ozmen, Laura J. Brattain,
- Abstract要約: Phyllodes tumors (PTs) は良性線維腺腫との放射線学的類似性から術前の分類が困難である。
乳房超音波(BUS)画像を構造化された臨床データと統合して診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.29981448312652675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phyllodes tumors (PTs) are rare fibroepithelial breast lesions that are difficult to classify preoperatively due to their radiological similarity to benign fibroadenomas. This often leads to unnecessary surgical excisions. To address this, we propose a multimodal deep learning framework that integrates breast ultrasound (BUS) images with structured clinical data to improve diagnostic accuracy. We developed a dual-branch neural network that extracts and fuses features from ultrasound images and patient metadata from 81 subjects with confirmed PTs. Class-aware sampling and subject-stratified 5-fold cross-validation were applied to prevent class imbalance and data leakage. The results show that our proposed multimodal method outperforms unimodal baselines in classifying benign versus borderline/malignant PTs. Among six image encoders, ConvNeXt and ResNet18 achieved the best performance in the multimodal setting, with AUC-ROC scores of 0.9427 and 0.9349, and F1-scores of 0.6720 and 0.7294, respectively. This study demonstrates the potential of multimodal AI to serve as a non-invasive diagnostic tool, reducing unnecessary biopsies and improving clinical decision-making in breast tumor management.
- Abstract(参考訳): Phyllodes tumors (PTs) は稀な線維上皮性乳腺病変であり, 良性線維腺腫との放射線学的類似性から術前分類が困難である。
これはしばしば不要な外科的切除につながる。
そこで本研究では,乳房超音波(BUS)画像を構造化された臨床データと統合し,診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
我々は, 超音波画像から特徴を抽出・融合するデュアルブランチニューラルネットワークを開発し, PTが確認された81名の被験者から患者メタデータを抽出した。
クラス不均衡やデータ漏洩を防止するため,クラス認識サンプリングと5倍のクロスバリデーションを適用した。
以上の結果から,本手法は良性・良性・良性PTの分類において,単調なベースラインよりも優れていた。
6つの画像エンコーダのうち、ConvNeXtとResNet18は、AUC-ROCスコアが0.9427、0.9349、F1スコアが0.6720、0.7294で、マルチモーダル環境で最高のパフォーマンスを達成した。
本研究は、非侵襲的診断ツールとしてのマルチモーダルAIの可能性を示し、不必要な生検を減らし、乳がん管理における臨床的意思決定を改善する。
関連論文リスト
- Efficient endometrial carcinoma screening via cross-modal synthesis and gradient distillation [15.277910275783187]
子宮内膜癌(EC)のステージングと救命には早期の子宮内膜浸潤の検出が重要である
ここでは、ECスクリーニングにおけるデータと計算のボトルネックの両方を解決する、自動化された、高効率な2段階のディープラーニングフレームワークを提案する。
本モデルでは,99.5%の感度,97.2%の特異度,0.987の曲線以下の領域を最小計算コストで達成する。
論文 参考訳(メタデータ) (2026-02-23T13:22:25Z) - Prompt-Free SAM-Based Multi-Task Framework for Breast Ultrasound Lesion Segmentation and Classification [0.4083182125683813]
本研究では,病変分類と診断分類を共同で行うマルチタスク深層学習フレームワークを提案する。
提案手法では,高次元SAM特徴を軽量な畳み込みヘッドまたはUNetにインスパイアされたデコーダでデコードし,ピクセルワイドセグメンテーションを実現する。
PreCISE 2025乳房超音波データセットの実験では、クラスごとに80%のトレーニングと20%のテストに分割し、提案手法がDice similarity Coefficient (DSC)の0.887の精度と92.3%の精度を達成することを示した。
論文 参考訳(メタデータ) (2026-01-09T03:02:41Z) - One-shot synthesis of rare gastrointestinal lesions improves diagnostic accuracy and clinical training [45.49415063761575]
EndoRareは、単一の参照画像から多種多様な高忠実度病変を合成する、ワンショットでリトレーニング不要な生成フレームワークである。
われわれはこの枠組みを4つの稀な病理から検証した。
これらの結果は, コンピュータ支援診断と臨床教育の両方において, 希少なギャップを埋める実践的でデータ効率のよい方法を確立している。
論文 参考訳(メタデータ) (2025-12-30T15:07:09Z) - Neural Discrete Representation Learning for Sparse-View CBCT Reconstruction: From Algorithm Design to Prospective Multicenter Clinical Evaluation [64.42236775544579]
コーンビームCT(CBCT)ガイド下穿刺は胸部腫瘍の診断・治療に確立されたアプローチとなっている。
DeepPriorCBCTは3段階のディープラーニングフレームワークであり、従来の放射線線量の6分の1しか使用せずに診断段階の再構築を実現する。
論文 参考訳(メタデータ) (2025-11-30T12:45:02Z) - Large-Scale Pre-training Enables Multimodal AI Differentiation of Radiation Necrosis from Brain Metastasis Progression on Routine MRI [3.291383664051985]
放射線治療後の腫瘍進展と放射線壊死の鑑別は、脳転移にとって重要な課題である。
従来の教師付き深層学習アプローチは、生検確認の少ない訓練データによって制約される。
自己教師付き学習は、大規模にラベル付けされていない脳転移画像データセットの可用性の増大を活用することで、この問題を克服する。
論文 参考訳(メタデータ) (2025-11-22T22:44:50Z) - Fusion-Based Brain Tumor Classification Using Deep Learning and Explainable AI, and Rule-Based Reasoning [0.0]
本研究では,MobileNetV2とDenseNet121畳み込みニューラルネットワーク(CNN)を組み合わせたアンサンブルに基づくディープラーニングフレームワークを提案する。
モデルは、階層化された5倍のクロスバリデーションプロトコルを使用して、Figshareデータセット上でトレーニングされ、評価された。
このアンサンブルは個々のCNNよりも優れた性能を示し、精度は91.7%、精度は91.9%、リコールは91.7%、F1スコアは91.6%だった。
論文 参考訳(メタデータ) (2025-08-09T08:46:36Z) - MSWAL: 3D Multi-class Segmentation of Whole Abdominal Lesions Dataset [41.69818086021188]
我々は,全腹部病変データセットの最初の3次元マルチクラスであるMSWALを紹介する。
MSWALは、胆石、腎臓石、肝腫瘍、腎臓腫瘍、膵癌、肝嚢胞、腎臓嚢胞など、様々な一般的な病変のカバー範囲を広げている。
Inception nnU-Netは、インセプションモジュールとnnU-Netアーキテクチャを効果的に統合し、異なるフィールドから情報を抽出する新しいセグメンテーションフレームワークである。
論文 参考訳(メタデータ) (2025-03-17T06:31:25Z) - TopoTxR: A topology-guided deep convolutional network for breast parenchyma learning on DCE-MRIs [49.69047720285225]
そこで本研究では,乳房側葉構造をよりよく近似するために,マルチスケールのトポロジ構造を明示的に抽出する新しいトポロジカルアプローチを提案する。
VICTREファントム乳房データセットを用いてemphTopoTxRを実験的に検証した。
本研究の質的および定量的分析は,乳房組織における画像診断におけるトポロジカルな挙動を示唆するものである。
論文 参考訳(メタデータ) (2024-11-05T19:35:10Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Radiomics Boosts Deep Learning Model for IPMN Classification [3.4659499358648675]
膵管内乳頭粘液性腫瘍 (IPMN) の嚢胞は術前膵管病変であり,膵癌に進展する可能性がある。
本研究では,MRIスキャンからIPMNリスク分類のための新しいコンピュータ支援診断パイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-11T22:41:52Z) - Improved Prognostic Prediction of Pancreatic Cancer Using Multi-Phase CT
by Integrating Neural Distance and Texture-Aware Transformer [37.55853672333369]
本稿では, 異なる患者のCT像における腫瘍と血管の正確な関係を記述した, 学習可能なニューラル距離を提案する。
発達したリスクマーカーは, 術前因子の生存率の予測因子として最強であった。
論文 参考訳(メタデータ) (2023-08-01T12:46:02Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Translating automated brain tumour phenotyping to clinical neuroimaging [0.4199844472131921]
我々は、自動腫瘍分割モデルの比較忠実度を定量化するために最先端の手法を用いる。
深層学習セグメンテーションモデルは、データ不足時に腫瘍をうまく特徴づけ、コントラストを使わずに拡張組織を検出できる。
論文 参考訳(メタデータ) (2022-06-13T12:58:54Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Deep Orthogonal Fusion: Multimodal Prognostic Biomarker Discovery
Integrating Radiology, Pathology, Genomic, and Clinical Data [0.32622301272834525]
グリオーマ患者の生存率 (OS) を, 深層直交核融合モデルを用いて予測した。
このモデルは、MRI検査、生検に基づくモダリティ、臨床変数から得た情報を総合的なマルチモーダルリスクスコアに組み合わせることを学ぶ。
グリオーマ患者を臨床的サブセット内でOSにより明らかに層分けし、予後不良な臨床グレーディングと分子サブタイプにさらに粒度を付加する。
論文 参考訳(メタデータ) (2021-07-01T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。