論文の概要: A Lightweight Multi-Cancer Tumor Localization Framework for Deployable Digital Pathology
- arxiv url: http://arxiv.org/abs/2603.08844v1
- Date: Mon, 09 Mar 2026 19:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.772002
- Title: A Lightweight Multi-Cancer Tumor Localization Framework for Deployable Digital Pathology
- Title(参考訳): デプロイ可能なデジタル病理のための軽量多チャンネル腫瘍局在フレームワーク
- Authors: Brian Isett, Rebekah Dadey, Aofei Li, Ryan C. Augustin, Kate Smith, Aatur D. Singhi, Qiangqiang Gu, Riyue Bao,
- Abstract要約: 特定のがん内で訓練された深層学習に基づく腫瘍検出は、異なる種類の腫瘍に適用した場合、堅牢性が低下する可能性がある。
多発癌腫瘍局在モデル (MuCTaL) を4癌から79,984個の非重複タイルを用いて訓練した。
このモデルは4つの訓練癌からの検証データで0.97のタイルレベルのROC-AUCを、独立した管腺癌コホートで0.71を達成した。
- 参考スコア(独自算出の注目度): 0.46843765915430247
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate localization of tumor regions from hematoxylin and eosin-stained whole-slide images is fundamental for translational research including spatial analysis, molecular profiling, and tissue architecture investigation. However, deep learning-based tumor detection trained within specific cancers may exhibit reduced robustness when applied across different tumor types. We investigated whether balanced training across cancers at modest scale can achieve high performance and generalize to unseen tumor types. A multi-cancer tumor localization model (MuCTaL) was trained on 79,984 non-overlapping tiles from four cancers (melanoma, hepatocellular carcinoma, colorectal cancer, and non-small cell lung cancer) using transfer learning with DenseNet169. The model achieved a tile-level ROC-AUC of 0.97 in validation data from the four training cancers, and 0.71 on an independent pancreatic ductal adenocarcinoma cohort. A scalable inference workflow was built to generate spatial tumor probability heatmaps compatible with existing digital pathology tools. Code and models are publicly available at https://github.com/AivaraX-AI/MuCTaL.
- Abstract(参考訳): ヘマトキシリンおよびエオシン含有全スライディング画像からの腫瘍領域の正確な局在化は、空間解析、分子プロファイリング、組織アーキテクチャーの研究を含む翻訳研究の基盤となる。
しかし、特定の癌内で訓練された深層学習に基づく腫瘍検出は、異なる種類の腫瘍に適用した場合、堅牢性が低下する可能性がある。
本研究は, がん間のバランスの取れた訓練が, 高い性能を達成し, 異常な腫瘍タイプに一般化できるかどうかを検討した。
DenseNet169を用いた転移学習を用いて, 悪性腫瘍, 肝細胞癌, 大腸癌および非小細胞肺癌の79,984個の非重複タイルに対して, 腫瘍局在モデル(MuCTaL)を訓練した。
このモデルでは, 膵管腺癌コホートで4例の訓練癌検診で0.97, 0.71のタイルレベルのROC-AUCが得られた。
拡張性推論ワークフローは、既存のデジタル病理ツールと互換性のある空間的腫瘍確率熱マップを生成するために構築された。
コードとモデルはhttps://github.com/AivaraX-AI/MuCTaLで公開されている。
関連論文リスト
- Scaling Artificial Intelligence for Multi-Tumor Early Detection with More Reports, Fewer Masks [59.37427210144734]
医療報告における記述に一致する腫瘍をセグメント化するためにAIを訓練するR-Superを紹介する。
101,654のレポートでトレーニングされたAIモデルは、723のマスクでトレーニングされたモデルに匹敵するパフォーマンスを達成した。
R-Superは脾・胆嚢・前立腺・膀胱・子宮・食道の腫瘍の分画を可能にした。
論文 参考訳(メタデータ) (2025-10-16T15:35:44Z) - Generalisation of automatic tumour segmentation in histopathological whole-slide images across multiple cancer types [0.5986174494948199]
このモデルは,大腸癌,子宮内膜癌,肺癌,前立腺癌患者の20万枚以上の全スライディング画像を用いて開発された。
単一癌型に特有なモデルとユニバーサルモデルを比較した場合, 性能の低下は認められなかった。
論文 参考訳(メタデータ) (2025-10-13T09:18:15Z) - Boosting Pathology Foundation Models via Few-shot Prompt-tuning for Rare Cancer Subtyping [80.92960114162746]
視覚言語病理基盤モデルの可能性を生かした新しいフレームワークPathPTを提案する。
PathPTは、WSIレベルの監視を、VLモデルのゼロショット機能を活用することで、きめ細かいタイルレベルのガイダンスに変換する。
以上の結果から,PathPTは一貫して優れた性能を示し,サブタイピング精度と癌領域の接地能力を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-08-21T18:04:41Z) - An ensemble deep learning approach to detect tumors on Mohs micrographic surgery slides [0.0]
本研究の目的は,Mohsスライド上で基底細胞癌(BCC)とアーティファクトを検出する深層学習モデルを開発することである。
そこで我々は,Mohsスライドの腫瘍や非腫瘍を検出するAIシステムを提案する。
論文 参考訳(メタデータ) (2025-04-07T16:05:42Z) - Towards Generalizable Tumor Synthesis [48.45704270448412]
腫瘍合成は、医用画像における人工腫瘍の作成を可能にし、腫瘍の検出とセグメンテーションのためのAIモデルのトレーニングを容易にする。
本論文は, 臨界観察を生かして, 一般化可能な腫瘍合成に向けて進歩的な一歩を踏み出した。
私たちは、Diffusion Modelsのような生成AIモデルが、単一の臓器から限られた数の腫瘍例を訓練しても、様々な臓器に一般化された現実的な腫瘍を作成できることを確認した。
論文 参考訳(メタデータ) (2024-02-29T18:57:39Z) - CancerUniT: Towards a Single Unified Model for Effective Detection,
Segmentation, and Diagnosis of Eight Major Cancers Using a Large Collection
of CT Scans [45.83431075462771]
ヒトの読者や放射線医は、臨床実践において、全身多臓器多臓器の検出と診断を日常的に行う。
ほとんどの医療用AIシステムは、いくつかの疾患のリストの狭い単一の臓器に焦点を当てて構築されている。
CancerUniT は、マルチ腫瘍予測の出力を持つクエリベースの Mask Transformer モデルである。
論文 参考訳(メタデータ) (2023-01-28T20:09:34Z) - Deep learning-based approach to reveal tumor mutational burden status
from whole slide images across multiple cancer types [41.61294299606317]
腫瘍突然変異負担(TMB)は、免疫療法の潜在的なゲノムバイオマーカーである。
ゲノムシークエンシングによって検出されたTMBは、低リソース環境での臨床透過性を欠いている。
本研究では,日常的に使用されているスライド画像からTMB状態を検出するための大規模ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T07:02:32Z) - Pan-Tumor CAnine cuTaneous Cancer Histology (CATCH) Dataset [6.547056001246874]
12,424個のポリゴンアノテーションで13の組織学的分類を補完した7種類の犬皮膚腫瘍の350枚のスライド画像からなる公開データセットを報告する。
サンプルのサイズとアノテーションの範囲に関して、これはほとんどの公開データセットを超えており、しばしば腫瘍領域に制限されるか、単にパッチレベルのアノテーションを提供するだけである。
論文 参考訳(メタデータ) (2022-01-27T11:16:26Z) - Segmentation for Classification of Screening Pancreatic Neuroendocrine
Tumors [72.65802386845002]
本研究は,腹部CTで膵神経内分泌腫瘍(PNET)を早期に検出するための包括的結果を提示する。
我々の知る限りでは、このタスクは以前まで計算タスクとして研究されていなかった。
我々の手法は最先端のセグメンテーションネットワークより優れ、感度は89.47%、特異性は81.08%である。
論文 参考訳(メタデータ) (2020-04-04T21:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。