論文の概要: FAST: A Dual-tier Few-Shot Learning Paradigm for Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2409.19720v1
- Date: Sun, 29 Sep 2024 14:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:04:09.730949
- Title: FAST: A Dual-tier Few-Shot Learning Paradigm for Whole Slide Image Classification
- Title(参考訳): FAST:全スライド画像分類のための2層Few-Shot学習パラダイム
- Authors: Kexue Fu, Xiaoyuan Luo, Linhao Qu, Shuo Wang, Ying Xiong, Ilias Maglogiannis, Longxiang Gao, Manning Wang,
- Abstract要約: 既存のWSI分類法では、少数のきめ細かいラベルや弱い教師付きスライドラベルしか使用していない。
利用可能なWSIを十分にマイニングすることができず、WSI分類性能を著しく制限しています。
本稿では,WSI分類のためのFASTという,新規で効率的な2層複数ショット学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 23.323845050957196
- License:
- Abstract: The expensive fine-grained annotation and data scarcity have become the primary obstacles for the widespread adoption of deep learning-based Whole Slide Images (WSI) classification algorithms in clinical practice. Unlike few-shot learning methods in natural images that can leverage the labels of each image, existing few-shot WSI classification methods only utilize a small number of fine-grained labels or weakly supervised slide labels for training in order to avoid expensive fine-grained annotation. They lack sufficient mining of available WSIs, severely limiting WSI classification performance. To address the above issues, we propose a novel and efficient dual-tier few-shot learning paradigm for WSI classification, named FAST. FAST consists of a dual-level annotation strategy and a dual-branch classification framework. Firstly, to avoid expensive fine-grained annotation, we collect a very small number of WSIs at the slide level, and annotate an extremely small number of patches. Then, to fully mining the available WSIs, we use all the patches and available patch labels to build a cache branch, which utilizes the labeled patches to learn the labels of unlabeled patches and through knowledge retrieval for patch classification. In addition to the cache branch, we also construct a prior branch that includes learnable prompt vectors, using the text encoder of visual-language models for patch classification. Finally, we integrate the results from both branches to achieve WSI classification. Extensive experiments on binary and multi-class datasets demonstrate that our proposed method significantly surpasses existing few-shot classification methods and approaches the accuracy of fully supervised methods with only 0.22$\%$ annotation costs. All codes and models will be publicly available on https://github.com/fukexue/FAST.
- Abstract(参考訳): 高価な微粒化アノテーションとデータ不足は、ディープラーニングベースのWSI分類アルゴリズムを臨床実践で広く採用する上で、主要な障害となっている。
各画像のラベルを活用できる自然画像の少数ショット学習法とは異なり、既存の少数ショットWSI分類法では、高価な微粒なアノテーションを避けるために、少数の微粒なラベルまたは弱い教師付きスライドラベルしか使用していない。
利用可能なWSIを十分にマイニングすることができず、WSI分類性能を著しく制限しています。
上記の課題に対処するため,WSI分類のためのFASTという,新規で効率的な2層複数ショット学習パラダイムを提案する。
FASTはデュアルレベルアノテーション戦略とデュアルブランチ分類フレームワークで構成されている。
まず、高価なきめ細かいアノテーションを避けるために、スライドレベルで非常に少数のWSIを集め、非常に少数のパッチを注釈付けします。
そして、利用可能なWSIを完全にマイニングするために、すべてのパッチと利用可能なパッチラベルを使用してキャッシュブランチを構築します。
また、キャッシュブランチに加えて、学習可能なプロンプトベクトルを含む事前ブランチを構築し、パッチ分類のための視覚言語モデルのテキストエンコーダを使用する。
最後に、WSI分類を達成するために、両方のブランチの結果を統合する。
バイナリおよびマルチクラスデータセットに対する大規模な実験により,提案手法は既存の少数ショット分類法をはるかに上回り,アノテーションコストがわずか0.22$\%の完全教師付き手法の精度にアプローチすることを示した。
すべてのコードとモデルはhttps://github.com/fukexue/FASTで公開される。
関連論文リスト
- TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - ProTeCt: Prompt Tuning for Taxonomic Open Set Classification [59.59442518849203]
分類学的オープンセット(TOS)設定では、ほとんどショット適応法はうまくいきません。
本稿では,モデル予測の階層的一貫性を校正する即時チューニング手法を提案する。
次に,階層整合性のための新しいPrompt Tuning(ProTeCt)手法を提案し,ラベル集合の粒度を分類する。
論文 参考訳(メタデータ) (2023-06-04T02:55:25Z) - The Rise of AI Language Pathologists: Exploring Two-level Prompt
Learning for Few-shot Weakly-supervised Whole Slide Image Classification [23.004237397025822]
本稿では,FSWCと表記される病的全スライド画像(WSI)分類における弱教師あり学習の概念を紹介する。
大規模言語モデル GPT-4 の即時学習と活用に基づく解法を提案する。
提案手法では,GPT-4を質問応答モードで活用し,インスタンスレベルとバッグレベルの両方で言語事前知識を取得し,インスタンスレベルとバッグレベルの言語プロンプトに統合する。
論文 参考訳(メタデータ) (2023-05-29T05:35:44Z) - Combining Metric Learning and Attention Heads For Accurate and Efficient
Multilabel Image Classification [0.0]
マルチラベル分類における2つの一般的なアプローチについて再検討する。
トランスフォーマーベースヘッドはグラフベースのブランチよりも優れた結果が得られると考えられるが、適切なトレーニング戦略により、グラフベースの手法はわずかに精度の低下を示すことができると論じる。
論文 参考訳(メタデータ) (2022-09-14T12:06:47Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - A Novel Plug-in Module for Fine-Grained Visual Classification [0.19336815376402716]
本稿では,多くの一般的なバックボーンと一体化して,強力な識別領域を提供する新しいプラグインモジュールを提案する。
実験の結果,提案するプラグインモジュールは最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-02-08T12:35:58Z) - DSNet: A Dual-Stream Framework for Weakly-Supervised Gigapixel Pathology
Image Analysis [78.78181964748144]
スライド画像全体(WSI)を分類するための弱教師付きフレームワークを提案する。
WSIは通常、パッチレベルのラベルを持つパッチワイド分類によって処理される。
イメージレベルのラベルのみの場合、パッチの外観とイメージレベルのラベルの矛盾のため、パッチの分類はサブ最適となる。
論文 参考訳(メタデータ) (2021-09-13T09:10:43Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。