論文の概要: Prompt-Guided Adaptive Model Transformation for Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2403.12537v1
- Date: Tue, 19 Mar 2024 08:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 14:52:48.444019
- Title: Prompt-Guided Adaptive Model Transformation for Whole Slide Image Classification
- Title(参考訳): 全スライド画像分類のためのPrompt-Guided Adaptive Model Transformation
- Authors: Yi Lin, Zhengjie Zhu, Kwang-Ting Cheng, Hao Chen,
- Abstract要約: スライド画像全体(WSI)を分類する一般的な方法として,Multiple Case Learning (MIL)が登場した。
本稿では,事前学習したモデルを病理組織学データの特定の特性にシームレスに適応するPrompt-Guided Adaptive Model Transformationフレームワークを提案する。
我々は,Camelyon16とTCGA-NSCLCの2つのデータセットに対するアプローチを厳格に評価し,様々なMILモデルに対して大幅な改善を行った。
- 参考スコア(独自算出の注目度): 27.21493446754789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple instance learning (MIL) has emerged as a popular method for classifying histopathology whole slide images (WSIs). Existing approaches typically rely on frozen pre-trained models to extract instance features, neglecting the substantial domain shift between pre-training natural and histopathological images. To address this issue, we propose PAMT, a novel Prompt-guided Adaptive Model Transformation framework that enhances MIL classification performance by seamlessly adapting pre-trained models to the specific characteristics of histopathology data. To capture the intricate histopathology distribution, we introduce Representative Patch Sampling (RPS) and Prototypical Visual Prompt (PVP) to reform the input data, building a compact while informative representation. Furthermore, to narrow the domain gap, we introduce Adaptive Model Transformation (AMT) that integrates adapter blocks within the feature extraction pipeline, enabling the pre-trained models to learn domain-specific features. We rigorously evaluate our approach on two publicly available datasets, Camelyon16 and TCGA-NSCLC, showcasing substantial improvements across various MIL models. Our findings affirm the potential of PAMT to set a new benchmark in WSI classification, underscoring the value of a targeted reprogramming approach.
- Abstract(参考訳): スライド画像全体(WSI)を分類するための一般的な手法として,MIL(Multiple Case Learning)が登場している。
既存のアプローチは、例の特徴を抽出するために、凍結した訓練済みのモデルに依存しており、訓練済みの自然像と病理像の間の領域シフトを無視している。
この問題を解決するために, PAMT を提案する。Pmpt-Guided Adaptive Model Transformation フレームワークは, 学習済みモデルを病理組織学的データの特徴にシームレスに適応させることにより, MIL 分類性能を向上させる。
本稿では, 複雑な病理組織分布を捉えるために, 適応的パッチサンプリング (RPS) とPVP (Prototypeal Visual Prompt) を導入し, 入力データを再構成し, コンパクトかつ情報的表現を構築する。
さらに、ドメインギャップを狭めるために、機能抽出パイプラインにアダプタブロックを統合するAdaptive Model Transformation (AMT)を導入し、事前学習したモデルがドメイン固有の特徴を学習できるようにする。
我々は,Camelyon16 と TCGA-NSCLC の2つの公開データセットに対するアプローチを厳格に評価し,様々な MIL モデルで大幅に改善されていることを示す。
本研究は, PAMTがWSI分類に新たなベンチマークを設定できる可能性を実証し, 対象とする再プログラミング手法の価値を裏付けるものである。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Exploring Visual Prompts for Whole Slide Image Classification with
Multiple Instance Learning [25.124855361054763]
本稿では,事前学習したモデルから病理組織像へのドメイン固有知識変換を学習するための,新しい,シンプルで効果的な手法を提案する。
提案手法では,事前学習したデータセットと対象の病理組織学データセットの違いを識別する上で,事前学習したモデルを支援するために,プロンプトコンポーネントを使用する。
論文 参考訳(メタデータ) (2023-03-23T09:23:52Z) - Domain-Specific Pre-training Improves Confidence in Whole Slide Image
Classification [15.354256205808273]
デジタル病理学では、全スライド画像(WSI)や病理像が用いられる。
WSIは、臨床診断のためのディープラーニングモデルに大きな課題を提起する。
論文 参考訳(メタデータ) (2023-02-20T08:42:06Z) - Domain Adaptive Nuclei Instance Segmentation and Classification via
Category-aware Feature Alignment and Pseudo-labelling [65.40672505658213]
本稿では, UDA 核インスタンス分割と分類のための新しいディープニューラルネットワークである Category-Aware 機能アライメントと Pseudo-Labelling Network (CAPL-Net) を提案する。
我々のアプローチは、最先端のUDA手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2022-07-04T07:05:06Z) - From Modern CNNs to Vision Transformers: Assessing the Performance,
Robustness, and Classification Strategies of Deep Learning Models in
Histopathology [1.8947504307591034]
我々は、広範囲の分類モデルを広範囲に評価する新しい手法を開発した。
広く使用されている5つの病理組織学的データセットを用いて,そのモデルを徹底的に検証した。
既存の解釈可能性手法を拡張し、モデルの分類戦略に関する洞察を体系的に明らかにする。
論文 参考訳(メタデータ) (2022-04-11T12:26:19Z) - Parameter-efficient Model Adaptation for Vision Transformers [45.3460867776953]
画像分類タスクにおける視覚変換器のパラメータ効率モデル適応戦略について検討する。
本稿では,局所固有次元を測定することで,まずサブモジュールを選択するパラメータ効率のよいモデル適応フレームワークを提案する。
提案手法は,20画像分類データセット間の精度とパラメータ効率のトレードオフを最良とする。
論文 参考訳(メタデータ) (2022-03-29T05:30:09Z) - Dynamic multi feature-class Gaussian process models [0.0]
本研究では, 医用画像における形状, ポーズ, 強度特徴の自動学習のための統計的モデリング手法を提案する。
DMFC-GPM (DMFC-GPM) はガウス過程(GP)に基づくモデルであり、線形および非線形の変動を符号化する潜在空間を共有する。
モデル性能の結果は、この新しいモデリングパラダイムが堅牢で、正確で、アクセス可能であり、潜在的な応用があることを示唆している。
論文 参考訳(メタデータ) (2021-12-08T15:12:47Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - FLAT: Few-Shot Learning via Autoencoding Transformation Regularizers [67.46036826589467]
本稿では,データ例のラベルを使わずに,変換の分布によって引き起こされる特徴表現の変化を学習することで,新たな正規化機構を提案する。
エンコードされた特徴レベルで変換強化されたバリエーションを検査することで、ベースカテゴリへのオーバーフィットのリスクを最小限に抑えることができる。
実験結果から,文学における現在の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2019-12-29T15:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。