論文の概要: A Multi-Stage Deep Learning Framework with PKCP-MixUp Augmentation for Pediatric Liver Tumor Diagnosis Using Multi-Phase Contrast-Enhanced CT
- arxiv url: http://arxiv.org/abs/2511.19478v1
- Date: Sat, 22 Nov 2025 16:34:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.023549
- Title: A Multi-Stage Deep Learning Framework with PKCP-MixUp Augmentation for Pediatric Liver Tumor Diagnosis Using Multi-Phase Contrast-Enhanced CT
- Title(参考訳): 多相造影CTを用いた小児肝腫瘍診断のためのPKCP-MixUp拡張多段階ディープラーニングフレームワーク
- Authors: Wanqi Wang, Chun Yang, Jianbo Shao, Yaokai Zhang, Xuehua Peng, Jin Sun, Chao Xiong, Long Lu, Lianting Hu,
- Abstract要約: 良性腫瘍と悪性腫瘍の第一段階分類は良好な成績を示した。
このフレームワークは、小児固有のDL診断ギャップを埋め、CT位相選択とモデル設計のための実用的な洞察を提供する。
- 参考スコア(独自算出の注目度): 12.188360172483927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pediatric liver tumors are one of the most common solid tumors in pediatrics, with differentiation of benign or malignant status and pathological classification critical for clinical treatment. While pathological examination is the gold standard, the invasive biopsy has notable limitations: the highly vascular pediatric liver and fragile tumor tissue raise complication risks such as bleeding; additionally, young children with poor compliance require anesthesia for biopsy, increasing medical costs or psychological trauma. Although many efforts have been made to utilize AI in clinical settings, most researchers have overlooked its importance in pediatric liver tumors. To establish a non-invasive examination procedure, we developed a multi-stage deep learning (DL) framework for automated pediatric liver tumor diagnosis using multi-phase contrast-enhanced CT. Two retrospective and prospective cohorts were enrolled. We established a novel PKCP-MixUp data augmentation method to address data scarcity and class imbalance. We also trained a tumor detection model to extract ROIs, and then set a two-stage diagnosis pipeline with three backbones with ROI-masked images. Our tumor detection model has achieved high performance (mAP=0.871), and the first stage classification model between benign and malignant tumors reached an excellent performance (AUC=0.989). Final diagnosis models also exhibited robustness, including benign subtype classification (AUC=0.915) and malignant subtype classification (AUC=0.979). We also conducted multi-level comparative analyses, such as ablation studies on data and training pipelines, as well as Shapley-Value and CAM interpretability analyses. This framework fills the pediatric-specific DL diagnostic gap, provides actionable insights for CT phase selection and model design, and paves the way for precise, accessible pediatric liver tumor diagnosis.
- Abstract(参考訳): 小児肝腫瘍は小児において最も多い固形腫瘍の1つである。
病理検査は金の基準であるが、侵襲的な生検は顕著な限界があり、高血管性小児肝と脆弱な腫瘍組織は出血などの合併症を引き起こす。
臨床環境でAIを活用するために多くの努力がなされているが、ほとんどの研究者は小児肝腫瘍においてその重要性を見落としている。
非侵襲的検査法を確立するため,多相造影CTを用いた小児肝腫瘍自動診断のための多段階ディープラーニング(DL)フレームワークを開発した。
ふりかえりと前向きなコホートが2つ登録された。
我々は,データ不足とクラス不均衡に対処する新しいPKCP-MixUpデータ拡張手法を構築した。
また,腫瘍検出モデルを用いてROIを抽出し,ROIを付加した3つの背骨を用いた2段階診断パイプラインを構築した。
良性腫瘍と悪性腫瘍の第1段階分類モデル(AUC=0.989)は高い性能(mAP=0.871)を示した。
最終診断モデルでは良性亜型分類(AUC=0.915)と悪性亜型分類(AUC=0.979)が認められた。
また、データとトレーニングパイプラインのアブレーション研究や、Shapley-ValueとCAMの解釈可能性分析など、多段階比較分析も行った。
このフレームワークは、小児固有のDL診断ギャップを埋め、CT位相選択とモデル設計のための実用的な洞察を提供し、正確な、アクセス可能な小児肝腫瘍診断の道を開く。
関連論文リスト
- An Anatomy Aware Hybrid Deep Learning Framework for Lung Cancer Tumor Stage Classification [9.447852227817533]
腫瘍の大きさと距離特性を明示的に測定し,ステージングを行う医用接地型ハイブリッドパイプラインを提案する。
本手法では, 特殊なエンコーダ・デコーダネットワークを用いて肺と隣接する解剖を正確に分類する。
この新しいフレームワークはLung-PET-CT-Dxデータセットで評価されており、従来のディープラーニングモデルと比較して優れた性能を示している。
論文 参考訳(メタデータ) (2025-11-24T18:01:47Z) - Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data [0.29981448312652675]
Phyllodes tumors (PTs) は良性線維腺腫との放射線学的類似性から術前の分類が困難である。
乳房超音波(BUS)画像を構造化された臨床データと統合して診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-29T19:54:11Z) - Post-Hoc Explainability of BI-RADS Descriptors in a Multi-task Framework
for Breast Cancer Detection and Segmentation [48.08423125835335]
MT-BI-RADSは乳房超音波(BUS)画像における腫瘍検出のための新しい深層学習手法である。
放射線科医が腫瘍の悪性度を予測するための意思決定プロセスを理解するための3つのレベルの説明を提供する。
論文 参考訳(メタデータ) (2023-08-27T22:07:42Z) - CancerUniT: Towards a Single Unified Model for Effective Detection,
Segmentation, and Diagnosis of Eight Major Cancers Using a Large Collection
of CT Scans [45.83431075462771]
ヒトの読者や放射線医は、臨床実践において、全身多臓器多臓器の検出と診断を日常的に行う。
ほとんどの医療用AIシステムは、いくつかの疾患のリストの狭い単一の臓器に焦点を当てて構築されている。
CancerUniT は、マルチ腫瘍予測の出力を持つクエリベースの Mask Transformer モデルである。
論文 参考訳(メタデータ) (2023-01-28T20:09:34Z) - A Pathologist-Informed Workflow for Classification of Prostate Glands in
Histopathology [62.997667081978825]
病理学者は、ガラススライド上の針生検の組織を調べて前立腺がんを診断し、診断する。
がんの重症度と転移リスクは、前立腺の組織と形態に基づくスコアであるGleason gradeによって決定される。
本稿では,病理学者のtextitmodus operandi に従って,個々の腺のマルチスケールパッチを分離・分類する自動ワークフローを提案する。
論文 参考訳(メタデータ) (2022-09-27T14:08:19Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - A Novel Self-Learning Framework for Bladder Cancer Grading Using
Histopathological Images [1.244681179922733]
組織像から膀胱癌を診断するための自己学習の枠組みについて検討した。
組織学的パッチを病のさまざまなレベルに分類できる新しいDeep Convolutional Embedded Attention Clustering (DCEAC)を提案する。
論文 参考訳(メタデータ) (2021-06-25T11:04:04Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。