論文の概要: Classifying Whole Slide Images: What Matters?
- arxiv url: http://arxiv.org/abs/2310.03279v1
- Date: Thu, 5 Oct 2023 03:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 19:29:22.865034
- Title: Classifying Whole Slide Images: What Matters?
- Title(参考訳): スライド画像の分類:何が重要か?
- Authors: Long Nguyen, Aiden Nibali, Joshua Millward, Zhen He
- Abstract要約: 最もグローバルな情報をキャプチャするモデルは、より少ないグローバルな情報をキャプチャするモデルよりも、一貫してパフォーマンスが悪くなります。
教師なしの33のがんに対する事前訓練は、7のがんの小さなデータセットに対する事前訓練に比べ、大幅にパフォーマンスが低下する。
- 参考スコア(独自算出の注目度): 8.483010768003613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently there have been many algorithms proposed for the classification of
very high resolution whole slide images (WSIs). These new algorithms are mostly
focused on finding novel ways to combine the information from small local
patches extracted from the slide, with an emphasis on effectively aggregating
more global information for the final predictor. In this paper we thoroughly
explore different key design choices for WSI classification algorithms to
investigate what matters most for achieving high accuracy. Surprisingly, we
found that capturing global context information does not necessarily mean
better performance. A model that captures the most global information
consistently performs worse than a model that captures less global information.
In addition, a very simple multi-instance learning method that captures no
global information performs almost as well as models that capture a lot of
global information. These results suggest that the most important features for
effective WSI classification are captured at the local small patch level, where
cell and tissue micro-environment detail is most pronounced. Another surprising
finding was that unsupervised pre-training on a larger set of 33 cancers gives
significantly worse performance compared to pre-training on a smaller dataset
of 7 cancers (including the target cancer). We posit that pre-training on a
smaller, more focused dataset allows the feature extractor to make better use
of the limited feature space to better discriminate between subtle differences
in the input patch.
- Abstract(参考訳): 近年,超高解像度全スライド画像(WSI)の分類に多くのアルゴリズムが提案されている。
これらの新しいアルゴリズムは主に、スライドから抽出された小さな局所的なパッチからの情報と、最終予測器のよりグローバルな情報を効果的に集約することに焦点を当てている。
本稿では,WSI分類アルゴリズムにおいて重要な設計選択を徹底的に検討し,高い精度を達成するために何が最も重要かを検討する。
驚くべきことに、グローバルコンテキスト情報の取得が必ずしもパフォーマンスの向上を意味するとは限らないことが分かりました。
最もグローバルな情報をキャプチャするモデルは、グローバル情報が少ないモデルよりも一貫してパフォーマンスが悪くなります。
さらに,グローバルな情報をキャプチャしない,非常にシンプルなマルチインスタンス学習手法も,グローバルな情報をキャプチャするモデルとほぼ同等に動作する。
以上の結果から,wsi分類の最も重要な特徴は,細胞および組織微小環境の細部が最も顕著である局所的なパッチレベルにあることが示唆された。
もうひとつの驚くべき発見は、33のがんのより大きなセットで教師なしの事前訓練が、7つのがん(標的がんを含む)の小さなデータセットでの事前訓練に比べてはるかに悪いパフォーマンスをもたらすことだ。
より小さく、より焦点を絞ったデータセットで事前トレーニングすることで、機能抽出器は限られた機能空間をより有効に利用し、入力パッチの微妙な違いを判別できると仮定する。
関連論文リスト
- Improve Meta-learning for Few-Shot Text Classification with All You Can Acquire from the Tasks [10.556477506959888]
既存の手法は、しばしばサポートセットのサンプルから正確なクラスプロトタイプを描くのに困難に遭遇する。
近年のアプローチでは、外部知識や事前訓練された言語モデルを組み込んでデータを拡張しようとするが、追加のリソースが必要になる。
本稿では,タスク自体の情報を適切に活用した新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-10-14T12:47:11Z) - Enhancing Image Classification in Small and Unbalanced Datasets through Synthetic Data Augmentation [0.0]
本稿では,クラス固有変分オートエンコーダ(VAE)と潜在空間を用いた,識別能力向上のための新しい合成拡張戦略を提案する。
特徴空間ギャップを埋めるリアルで多様な合成データを生成することにより、データの不足とクラス不均衡の問題に対処する。
提案手法は,エゾファゴガストロデュオ内視鏡画像の清潔度を自動評価する方法を訓練し,検証するために作成した321枚の画像の小さなデータセットで検証した。
論文 参考訳(メタデータ) (2024-09-16T13:47:52Z) - Zooming Out on Zooming In: Advancing Super-Resolution for Remote Sensing [31.409817016287704]
リモートセンシングのための超解像は、惑星の監視に大きな影響を与える可能性がある。
多くの注意を払っているにもかかわらず、いくつかの矛盾や課題により、実際にデプロイされるのを妨げている。
この研究は、従来の測定値よりも人間の判断にはるかによく対応している、超高解像度のCLIPScoreのための新しい測定基準を示す。
論文 参考訳(メタデータ) (2023-11-29T21:06:45Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - On the Eigenvalues of Global Covariance Pooling for Fine-grained Visual
Recognition [65.67315418971688]
グローバル共分散プーリング(GCP)の小さな固有値をトラッピングすることで、よりスムーズな勾配が得られることを示す。
きめ細かいデータセットでは、小さな固有値の切り抜きは、モデルを収束させるのに失敗する。
この観測から着想を得て,小さな固有値の重要性を拡大するネットワーク分岐を提案する。
論文 参考訳(メタデータ) (2022-05-26T11:41:36Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - On the Effectiveness of Neural Ensembles for Image Classification with
Small Datasets [2.3478438171452014]
本稿では,クラスごとのラベル付き例数件による画像分類問題に着目し,比較的小さなネットワークのアンサンブルを用いてデータ効率を向上させる。
比較的浅いネットワークをアンサンブルすることは、小さなデータセットから学ぶための現在の最先端のアプローチよりも一般的に優れている、単純だが効果的な手法であることを示す。
論文 参考訳(メタデータ) (2021-11-29T12:34:49Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。