論文の概要: Giga-SSL: Self-Supervised Learning for Gigapixel Images
- arxiv url: http://arxiv.org/abs/2212.03273v1
- Date: Tue, 6 Dec 2022 19:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:50:15.290589
- Title: Giga-SSL: Self-Supervised Learning for Gigapixel Images
- Title(参考訳): Giga-SSL: ギガピクセル画像のための自己監督型学習
- Authors: Tristan Lazard, Marvin Lerousseau, Etienne Decenci\`ere, Thomas Walter
- Abstract要約: 全スライド画像(WSI)は、医療現場で診断と治療のために定期的に準備された染色組織スライドの顕微鏡画像である。
現在の最先端(SoTA)アプローチでは、WSIはそれらをタイルに分類し、事前訓練されたネットワークでエンコードし、MIL(Multiple Instance Learning)を適用して、特定の下流タスクのトレーニングを行います。
本稿では,強力なスライド表現を推論するアノテーションを使わずに,多数のWSIを活用するためのスライドレベルSSLの戦略を提案する。
- 参考スコア(独自算出の注目度): 0.8029049649310211
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Whole slide images (WSI) are microscopy images of stained tissue slides
routinely prepared for diagnosis and treatment selection in medical practice.
WSI are very large (gigapixel size) and complex (made of up to millions of
cells). The current state-of-the-art (SoTA) approach to classify WSI subdivides
them into tiles, encodes them by pre-trained networks and applies Multiple
Instance Learning (MIL) to train for specific downstream tasks. However,
annotated datasets are often small, typically a few hundred to a few thousand
WSI, which may cause overfitting and underperforming models. Conversely, the
number of unannotated WSI is ever increasing, with datasets of tens of
thousands (soon to be millions) of images available. While it has been
previously proposed to use these unannotated data to identify suitable tile
representations by self-supervised learning (SSL), downstream classification
tasks still require full supervision because parts of the MIL architecture is
not trained during tile level SSL pre-training. Here, we propose a strategy of
slide level SSL to leverage the large number of WSI without annotations to
infer powerful slide representations. Applying our method to The Cancer-Genome
Atlas, one of the most widely used data resources in cancer research (16 TB
image data), we are able to downsize the dataset to 23 MB without any loss in
predictive power: we show that a linear classifier trained on top of these
embeddings maintains or improves previous SoTA performances on various
benchmark WSI classification tasks. Finally, we observe that training a
classifier on these representations with tiny datasets (e.g. 50 slides)
improved performances over SoTA by an average of +6.3 AUC points over all
downstream tasks.
- Abstract(参考訳): 全スライド画像(WSI)は、医療現場で診断と治療のために定期的に準備された染色組織スライドの顕微鏡画像である。
WSIは非常に大きく(ギガピクセルサイズ)、複雑で(数百万セルまで)複雑です。
現在の最先端(SoTA)アプローチでは、WSIはそれらをタイルに分類し、事前訓練されたネットワークでエンコードし、特定の下流タスクのトレーニングにMILを適用している。
しかし、注釈付きデータセットはしばしば小さく、通常数百から数千のwsiであり、過剰フィッティングやパフォーマンスの低いモデルを引き起こす可能性がある。
逆に、注釈のないwsiの数は増え続けており、データセットは数万(間もなく数百万)のイメージが利用できる。
自己教師付き学習(SSL)による適切なタイル表現の特定には,これらのアノテーションのないデータを使用することが提案されているが,MILアーキテクチャの一部がタイルレベルのSSL事前トレーニング中にトレーニングされていないため,下流分類タスクは依然として完全な監視を必要とする。
本稿では,強力なスライド表現を推論するアノテーションを使わずに,多数のWSIを活用するためのスライドレベルSSLの戦略を提案する。
この手法をがん研究で最も広く使われているデータリソースであるThe Cancer-Genome Atlas(16 TB画像データ)に適用することにより、予測力を失うことなくデータセットを23MBに縮小することができる。
最後に、小さなデータセット(例えば50のスライド)でこれらの表現で分類器を訓練することで、下流タスク全体の平均で6.3aucポイントのパフォーマンスが向上するのを観察した。
関連論文リスト
- A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - LESS: Label-efficient Multi-scale Learning for Cytological Whole Slide
Image Screening [19.803614403803962]
スライドレベルラベルのみを用いた細胞学的WSI解析において,LESSと呼ばれる弱教師付きラベル効率WSIスクリーニング法を提案する。
スライドレベルのラベルを用いて適切な監視を行い、パッチレベルの特徴の学習を改善する。
病理組織WSIにおける最新のMIL法よりも優れており、細胞学的WSI検診の自動化を実現している。
論文 参考訳(メタデータ) (2023-06-06T05:09:20Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - A Dual-branch Self-supervised Representation Learning Framework for
Tumour Segmentation in Whole Slide Images [12.961686610789416]
自己教師付き学習(SSL)は、スライドイメージ全体のアノテーションオーバーヘッドを低減する代替ソリューションとして登場した。
これらのSSLアプローチは、識別画像の特徴を学習する際の性能を制限するマルチレゾリューションWSIを扱うために設計されていない。
マルチ解像度WSIから画像特徴を効果的に学習できるDSF-WSI(Dual-branch SSL Framework for WSI tumour segmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-20T10:57:28Z) - Task-specific Fine-tuning via Variational Information Bottleneck for
Weakly-supervised Pathology Whole Slide Image Classification [10.243293283318415]
MIL(Multiple Instance Learning)は、デジタル・パスロジー・ホール・スライド・イメージ(WSI)分類において有望な結果を示している。
本稿では,Information Bottleneck 理論を動機とした効率的な WSI 微調整フレームワークを提案する。
我々のフレームワークは、様々なWSIヘッド上の5つの病理WSIデータセットで評価される。
論文 参考訳(メタデータ) (2023-03-15T08:41:57Z) - Self Supervised Learning for Few Shot Hyperspectral Image Classification [57.2348804884321]
HSI分類に自己監督学習(SSL)を活用することを提案する。
最先端のSSLアルゴリズムであるBarlow-Twinsを用いて,ラベルのない画素にエンコーダを事前学習することにより,少数のラベルを持つ正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-06-24T07:21:53Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。