論文の概要: Boosting Pathology Foundation Models via Few-shot Prompt-tuning for Rare Cancer Subtyping
- arxiv url: http://arxiv.org/abs/2508.15904v1
- Date: Thu, 21 Aug 2025 18:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.15817
- Title: Boosting Pathology Foundation Models via Few-shot Prompt-tuning for Rare Cancer Subtyping
- Title(参考訳): 希少ながん治療のためのプロンプトチューニングによる病理基盤モデルの構築
- Authors: Dexuan He, Xiao Zhou, Wenbin Guan, Liyuan Zhang, Xiaoman Zhang, Sinuo Xu, Ge Wang, Lifeng Wang, Xiaojun Yuan, Xin Sun, Yanfeng Wang, Kun Sun, Ya Zhang, Weidi Xie,
- Abstract要約: 視覚言語病理基盤モデルの可能性を生かした新しいフレームワークPathPTを提案する。
PathPTは、WSIレベルの監視を、VLモデルのゼロショット機能を活用することで、きめ細かいタイルレベルのガイダンスに変換する。
以上の結果から,PathPTは一貫して優れた性能を示し,サブタイピング精度と癌領域の接地能力を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 80.92960114162746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rare cancers comprise 20-25% of all malignancies but face major diagnostic challenges due to limited expert availability-especially in pediatric oncology, where they represent over 70% of cases. While pathology vision-language (VL) foundation models show promising zero-shot capabilities for common cancer subtyping, their clinical performance for rare cancers remains limited. Existing multi-instance learning (MIL) methods rely only on visual features, overlooking cross-modal knowledge and compromising interpretability critical for rare cancer diagnosis. To address this limitation, we propose PathPT, a novel framework that fully exploits the potential of vision-language pathology foundation models through spatially-aware visual aggregation and task-specific prompt tuning. Unlike conventional MIL, PathPT converts WSI-level supervision into fine-grained tile-level guidance by leveraging the zero-shot capabilities of VL models, thereby preserving localization on cancerous regions and enabling cross-modal reasoning through prompts aligned with histopathological semantics. We benchmark PathPT on eight rare cancer datasets(four adult and four pediatric) spanning 56 subtypes and 2,910 WSIs, as well as three common cancer datasets, evaluating four state-of-the-art VL models and four MIL frameworks under three few-shot settings. Results show that PathPT consistently delivers superior performance, achieving substantial gains in subtyping accuracy and cancerous region grounding ability. This work advances AI-assisted diagnosis for rare cancers, offering a scalable solution for improving subtyping accuracy in settings with limited access to specialized expertise.
- Abstract(参考訳): 稀ながんはすべての悪性腫瘍の20-25%を占めるが、特に小児腫瘍学の専門知識が限られており、70%以上の症例を代表しているため、大きな診断課題に直面している。
病理ヴィジュアル言語(VL)基礎モデルでは, がんのサブタイプ化に期待できるゼロショット能力を示すが, 稀ながんに対する臨床成績は限られている。
既存のMIL(Multi-instance Learning)法は視覚的特徴にのみ依存し、横断的な知識を見渡すとともに、まれな癌診断に不可欠な解釈可能性を向上させる。
この制限に対処するために,空間認識型視覚アグリゲーションとタスク固有のプロンプトチューニングにより,視覚言語病理基盤モデルの可能性を完全に活用する新しいフレームワークPathPTを提案する。
従来のMILとは異なり、PathPTは、WSIレベルの監督をVLモデルのゼロショット機能を活用することで、細粒度タイルレベルのガイダンスに変換し、がん領域の局所化を保ち、病理学的意味論と整合したプロンプトを通じて、モーダル間推論を可能にする。
PathPTは56のサブタイプと2,910のWSIにまたがる8つのまれながんデータセット(成人4名,小児4名)と3つの一般的ながんデータセットをベンチマークし,4つの最先端VLモデルと4つのMILフレームワークを3つのショット設定で評価した。
以上の結果から,PathPTは一貫して優れた性能を示し,サブタイピング精度と癌領域の接地能力を著しく向上することが示された。
この研究は、まれながんに対するAI支援診断を前進させ、特殊な専門知識に限られたアクセスで、設定のサブタイプ精度を改善するスケーラブルなソリューションを提供する。
関連論文リスト
- CXR-LT 2024: A MICCAI challenge on long-tailed, multi-label, and zero-shot disease classification from chest X-ray [64.2434525370243]
CXR-LTシリーズは、胸部X線を用いた肺疾患の分類を強化するために設計されたコミュニティ主導のイニシアチブである。
CXR-LT 2024はデータセットを377,110の胸部X線(CXR)と45の疾患ラベルに拡張し、19の新しい稀な疾患の発見を含んでいる。
本稿では、CXR-LT 2024の概要を述べるとともに、データキュレーションプロセスの詳細と最先端ソリューションの統合について述べる。
論文 参考訳(メタデータ) (2025-06-09T17:53:31Z) - GRAPHITE: Graph-Based Interpretable Tissue Examination for Enhanced Explainability in Breast Cancer Histopathology [14.812589661794592]
GRAPHITEは、乳がん組織マイクロアレイ(TMA)解析のために設計された、ポストホックな説明可能なフレームワークである。
140個の腫瘍TMAコアと4個の良性スライド画像から140個の良性サンプルを作成し,53個の病理組織学的TMAサンプルで試験した。
平均平均精度(mAP)は0.56、受信機動作特性曲線(AUROC)は0.94、しきい値ロバスト性(ThR)は0.70である。
論文 参考訳(メタデータ) (2025-01-08T00:54:43Z) - A Knowledge-enhanced Pathology Vision-language Foundation Model for Cancer Diagnosis [58.85247337449624]
本稿では,疾患知識を階層型セマンティックグループ内のアライメントに組み込む知識強化型視覚言語事前学習手法を提案する。
KEEPはゼロショット癌診断タスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-17T17:45:21Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - Beyond attention: deriving biologically interpretable insights from
weakly-supervised multiple-instance learning models [2.639541396835675]
本稿では,高精細エンコーダによるタイルレベルのアテンションと予測スコアを組み合わせたPAWマップを提案する。
また, PAWマップと核分割マスクを統合することにより, 生物学的特徴のインスタンス化手法も導入する。
本手法により, 予後不良の予知を行う領域は, 腫瘍部位と同一位置にあることが判明した。
論文 参考訳(メタデータ) (2023-09-07T09:44:35Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Whole Slide Images are 2D Point Clouds: Context-Aware Survival
Prediction using Patch-based Graph Convolutional Networks [6.427108174481534]
Patch-GCNは、コンテキスト対応で空間分解されたパッチベースのグラフ畳み込みネットワークで、階層的にインスタンスレベルのヒストロジーの特徴を集約する。
我々は、Patch-GCNが以前の弱教師付きアプローチを3.58-9.46%上回っていることを示した。
論文 参考訳(メタデータ) (2021-07-27T19:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。