論文の概要: Single GPU Task Adaptation of Pathology Foundation Models for Whole Slide Image Analysis
- arxiv url: http://arxiv.org/abs/2506.05184v1
- Date: Thu, 05 Jun 2025 15:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.802962
- Title: Single GPU Task Adaptation of Pathology Foundation Models for Whole Slide Image Analysis
- Title(参考訳): 全スライド画像解析のための病理基礎モデルの単一GPUタスク適応
- Authors: Neeraj Kumar, Swaraj Nanda, Siddharth Singi, Jamal Benhamida, David Kim, Jie-Fu Chen, Amir Momeni-Boroujeni, Gregory M. Goldgof, Gabriele Campanella, Chad Vanderbilt,
- Abstract要約: 病理基盤モデル(PFM)は、スライド画像全体(WSI)を解析するための強力なツールとして登場した。
TAPFMは、特徴表現と注目重みの両方を最適化しながら、MILアグリゲーションに視覚変換器(ヴィット)アテンションを使用する。
膀胱癌および肺腺癌に対する突然変異予測タスクの評価。
- 参考スコア(独自算出の注目度): 8.076987502347327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pathology foundation models (PFMs) have emerged as powerful tools for analyzing whole slide images (WSIs). However, adapting these pretrained PFMs for specific clinical tasks presents considerable challenges, primarily due to the availability of only weak (WSI-level) labels for gigapixel images, necessitating multiple instance learning (MIL) paradigm for effective WSI analysis. This paper proposes a novel approach for single-GPU \textbf{T}ask \textbf{A}daptation of \textbf{PFM}s (TAPFM) that uses vision transformer (\vit) attention for MIL aggregation while optimizing both for feature representations and attention weights. The proposed approach maintains separate computational graphs for MIL aggregator and the PFM to create stable training dynamics that align with downstream task objectives during end-to-end adaptation. Evaluated on mutation prediction tasks for bladder cancer and lung adenocarcinoma across institutional and TCGA cohorts, TAPFM consistently outperforms conventional approaches, with H-Optimus-0 (TAPFM) outperforming the benchmarks. TAPFM effectively handles multi-label classification of actionable mutations as well. Thus, TAPFM makes adaptation of powerful pre-trained PFMs practical on standard hardware for various clinical applications.
- Abstract(参考訳): 病理基盤モデル(PFM)は、スライド画像全体(WSI)を解析するための強力なツールとして登場した。
しかし、これらの事前訓練されたPFMを特定の臨床タスクに適用することは、主に、ギガピクセル画像の弱い(WSIレベル)ラベルのみを利用できるため、効果的なWSI分析のために複数のインスタンス学習(MIL)パラダイムを必要とするため、大きな課題を生じさせる。
本稿では,特徴表現と注目重みの両方を最適化しつつ,MILアグリゲーションに視覚変換器(\vit)を用いた単一GPU \textbf{T}ask \textbf{A}daptation of \textbf{PFM}s (TAPFM) を提案する。
提案手法は,MILアグリゲータとPFMのための計算グラフを分離して維持し,エンド・ツー・エンド適応時の下流タスク目標と整合する安定したトレーニングダイナミックスを生成する。
膀胱癌およびTGAコホートにおける肺腺癌の突然変異予測タスクの評価において,TAPFMはH-Optimus-0 (TAPFM) よりも高い成績を示した。
TAPFMは、実行可能な突然変異の多ラベル分類も効果的に扱う。
したがって、TAPFMは、様々な臨床応用のための標準ハードウェア上で、強力な事前訓練されたPFMを実用化する。
関連論文リスト
- TAP-SLF: Parameter-Efficient Adaptation of Vision Foundation Models for Multi-Task Ultrasound Image Analysis [1.5074458114135958]
Task-Aware Prompting and Selective Layer Fine-Tuning (TAP-SLF) はマルチタスク超音波画像解析のための統合フレームワークである。
TAP-SLFは、タスク固有の先行情報を入力トークンシーケンスに組み込み、LoRAをエンコーダの選択した特定のトップ層に適用する。
The FMC_UIA 2026 Challenge test set, with the evaluations on the officially released training dataset using a 8:2 train-test split, show that task-aware prompting and selective layer tuning is effective strategy for efficient VFM adapt。
論文 参考訳(メタデータ) (2026-02-28T03:21:07Z) - Fusion of Heterogeneous Pathology Foundation Models for Whole Slide Image Analysis [10.323462166785133]
完全スライド画像(WSI)解析は、計算病理学においてますます必須の手法になりつつある。
病理基盤モデル(FM)の最近の進歩は,WSIから有意義なパッチレベルやスライドレベルの特徴表現を導出する上で,大きな優位性を示している。
本研究では,FuseCPathと呼ばれる異種病的FMの融合のための新しいフレームワークを提案し,より優れたアンサンブル性能を持つモデルを生成する。
論文 参考訳(メタデータ) (2025-10-31T06:59:11Z) - GAS-MIL: Group-Aggregative Selection Multi-Instance Learning for Ensemble of Foundation Models in Digital Pathology Image Analysis [6.45975531973783]
GAS-MILはフレキシブルアンサンブルフレームワークで、複数の基盤モデルの機能をシームレスに統合する。
個々のFMに対して優れた性能またはオンパー性能を達成し、MIL法を確立した。
将来のマルチモーダルおよび精度オンコロジーアプリケーションのためのスケーラブルな基盤を提供する。
論文 参考訳(メタデータ) (2025-10-03T22:59:40Z) - MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation [55.37355146924576]
MedSeqFTは、医用画像解析のためのシーケンシャルな微調整フレームワークである。
事前訓練されたモデルを新しいタスクに適応させ、表現能力を改善する。
最先端の微調整戦略を一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-07T15:22:53Z) - Ensemble of Pathology Foundation Models for MIDOG 2025 Track 2: Atypical Mitosis Classification [0.0]
病理基盤モデル(PFM)を大規模病理組織学データセットで事前訓練した。
我々はPFMを補完するために、最先端の畳み込みニューラルネットワークアーキテクチャであるConvNeXt V2を組み込んだ。
我々は,相補的な形態的洞察を統合するために複数のPFMをアンサンブルし,予備評価フェーズデータセット上でバランスの取れた精度を実現した。
論文 参考訳(メタデータ) (2025-08-29T03:24:57Z) - AdaFusion: Prompt-Guided Inference with Adaptive Fusion of Pathology Foundation Models [49.550545038402184]
本稿では,新しいプロンプト誘導推論フレームワークであるAdaFusionを提案する。
本手法は,多様なモデルからタイルレベルの特徴を圧縮・整列する。
AdaFusionは、分類タスクと回帰タスクの両方にわたって、個々のPFMを一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:09:31Z) - Benchmarking histopathology foundation models in a multi-center dataset for skin cancer subtyping [1.927195358774599]
大規模なドメイン内データセットの事前トレーニングは、履歴病理基盤モデル(FM)にタスクに依存しないデータ表現を学習する能力を与える。
計算病理学では、スライド全体の自動解析には、スライドのギガピクセルスケールのため、複数のインスタンス学習(MIL)フレームワークが必要である。
本研究は,MIL分類フレームワーク内のパッチレベルの特徴抽出器として,病理組織学的FMを評価するための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-06-23T14:12:16Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [56.503053716053]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
我々は、TSFMの能力を十分に活用するに足りず、しばしば過度な適合と準最適性能をもたらすと論じている。
マルチスケールモデリングをファインタニングプロセスに明示的に統合するシンプルなフレームワークであるtextbftextscfinetextbftextsctuning (textbfMSFT)を提案する。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - FisherTune: Fisher-Guided Robust Tuning of Vision Foundation Models for Domain Generalized Segmentation [65.93276461982093]
既存のアプローチでは、パラメータを選択的に微調整するか、VFMを凍結し、アダプタのみを更新する。
我々は、Domain-Related Fisher Information Matrix (DR-FIM) によって誘導される堅牢な微調整法である textbfFisherTune を提案する。
DR-FIMはタスクやドメイン間でパラメータの感度を測定し、汎用性を維持し、DGSS適応性を高めるための選択的更新を可能にする。
論文 参考訳(メタデータ) (2025-03-23T04:47:15Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - Adaptive Aggregation Weights for Federated Segmentation of Pancreas MRI [5.631060921219683]
フェデレートラーニング(FL)は、機密データを共有することなく、機関間で協調的なモデルトレーニングを可能にする。
フェデレート平均化(FedAvg)のような従来のFLメソッドは、ドメイン間の一般化において困難に直面している。
本稿では適応的なアグリゲーション重みを取り入れた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-29T20:53:01Z) - A Novel Benchmark for Few-Shot Semantic Segmentation in the Era of Foundation Models [7.428199805959228]
Few-shot semantic segmentation (FSS) はコンピュータビジョンにおいて重要な課題である。
一般化的特徴抽出器としての視覚基盤モデル(VFM)の出現に伴い,これらのモデルをFSSに適用することを模索する。
本稿では,このタスクに適した単純で簡単な適応プロセスを備えた,新しい現実的なベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-20T19:50:51Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Training Lightweight Graph Convolutional Networks with Phase-field
Models [12.18340575383456]
我々は、位相場モデル(PFM)と呼ばれる特定の正規化器のクラスを用いて、軽量グラフ畳み込みネットワーク(GCN)を設計する。
PFMは、一つの「エンドツーエンド」最適化問題の一部として、GCNのトポロジーと重みパラメータの両方をトレーニングできる特定の超局所項を用いて、二相挙動を示す。
論文 参考訳(メタデータ) (2022-12-19T12:49:03Z) - PyMAF-X: Towards Well-aligned Full-body Model Regression from Monocular
Images [60.33197938330409]
PyMAF-Xは、モノクロ画像からパラメトリックフルボディモデルを復元するための回帰ベースのアプローチである。
PyMAFとPyMAF-Xは、メッシュイメージアライメントを効果的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-07-13T17:58:33Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。