論文の概要: Mixed Supervision Learning for Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2107.00934v2
- Date: Mon, 5 Jul 2021 03:09:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 11:46:10.020862
- Title: Mixed Supervision Learning for Whole Slide Image Classification
- Title(参考訳): 全スライド画像分類のための混合監督学習
- Authors: Jiahui Li, Wen Chen, Xiaodi Huang, Zhiqiang Hu, Qi Duan, Hongsheng Li,
Dimitris N. Metaxas, Shaoting Zhang
- Abstract要約: 超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
- 参考スコア(独自算出の注目度): 88.31842052998319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weak supervision learning on classification labels has demonstrated high
performance in various tasks. When a few pixel-level fine annotations are also
affordable, it is natural to leverage both of the pixel-level (e.g.,
segmentation) and image level (e.g., classification) annotation to further
improve the performance. In computational pathology, however, such weak or
mixed supervision learning is still a challenging task, since the high
resolution of whole slide images makes it unattainable to perform end-to-end
training of classification models. An alternative approach is to analyze such
data by patch-base model training, i.e., using self-supervised learning to
generate pixel-level pseudo labels for patches. However, such methods usually
have model drifting issues, i.e., hard to converge, because the noise
accumulates during the self-training process. To handle those problems, we
propose a mixed supervision learning framework for super high-resolution images
to effectively utilize their various labels (e.g., sufficient image-level
coarse annotations and a few pixel-level fine labels). During the patch
training stage, this framework can make use of coarse image-level labels to
refine self-supervised learning and generate high-quality pixel-level pseudo
labels. A comprehensive strategy is proposed to suppress pixel-level false
positives and false negatives. Three real-world datasets with very large number
of images (i.e., more than 10,000 whole slide images) and various types of
labels are used to evaluate the effectiveness of mixed supervision learning. We
reduced the false positive rate by around one third compared to state of the
art while retaining 100% sensitivity, in the task of image-level
classification.
- Abstract(参考訳): 分類ラベルを用いた弱監督学習は,様々なタスクにおいて高い性能を示した。
数ピクセルレベルのファインアノテーションも手頃な価格である場合、ピクセルレベルのアノテーション(セグメンテーションなど)と画像レベルのアノテーション(分類など)の両方を活用してパフォーマンスをさらに向上することは自然である。
しかし、計算病理学では、スライド画像全体の高解像度化によって分類モデルのエンドツーエンドの訓練が不可能になるため、そのような弱さや混在した監視学習は依然として難しい課題である。
別のアプローチとして、パッチベースのモデルトレーニング、すなわち、自己教師付き学習を用いてパッチのピクセルレベルの擬似ラベルを生成することで、そのようなデータを解析する方法がある。
しかしながら、そのような手法は通常、自己学習過程中にノイズが蓄積されるため、収束しにくいモデルドリフト問題を持つ。
これらの問題に対処するために,高解像度画像のための混合監視学習フレームワークを提案し,それらの様々なラベル(画像レベルの粗いアノテーションや画素レベルの微細なラベルなど)を効果的に活用する。
パッチトレーニングの段階で、このフレームワークは粗いイメージレベルラベルを使用して、自己教師付き学習を洗練し、高品質のピクセルレベル擬似ラベルを生成することができる。
ピクセルレベルの偽陽性と偽陰性を抑制するための包括的戦略が提案されている。
大量の画像(スライド画像1万枚以上)を持つ実世界の3つのデータセットと、様々な種類のラベルを用いて、混合監視学習の有効性を評価する。
画像レベルの分類作業において,100%の感度を維持しながら,術式と比較して偽陽性率を約3分の1削減した。
関連論文リスト
- Learning Camouflaged Object Detection from Noisy Pseudo Label [60.9005578956798]
本稿では,まず,弱い半教師付きカモフラージュオブジェクト検出(COD)法を提案する。
予算効率が高く高精度なカモフラージュされたオブジェクトセグメンテーションを目標とし、完全にラベル付けされた画像が極めて限られている。
本稿では,早期の学習段階において,モデルが正しい画素の学習を容易にするノイズ補正損失を提案する。
完全ラベル付きデータの20%しか使用しない場合,本手法は最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T04:53:51Z) - Learning to Annotate Part Segmentation with Gradient Matching [58.100715754135685]
本稿では,事前学習したGANを用いて,高品質な画像を生成することで,半教師付き部分分割タスクに対処することに焦点を当てる。
特に、アノテータ学習を学習から学習までの問題として定式化する。
提案手法は,実画像,生成された画像,さらには解析的に描画された画像を含む,幅広いラベル付き画像からアノテータを学習可能であることを示す。
論文 参考訳(メタデータ) (2022-11-06T01:29:22Z) - Multiple Instance Learning with Mixed Supervision in Gleason Grading [19.314029297579577]
本稿では,複数インスタンス学習フレームワークに基づく複合監視トランスフォーマを提案する。
このモデルは、スライドレベルラベルとインスタンスレベルラベルの両方を使用して、より正確なGleasonグレーディングをスライドレベルで達成する。
SICAPv2データセット上での最先端性能を実現し、視覚解析により、インスタンスレベルの正確な予測結果を示す。
論文 参考訳(メタデータ) (2022-06-26T06:28:44Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Distilling effective supervision for robust medical image segmentation
with noisy labels [21.68138582276142]
本稿では,画素レベルと画像レベルの両方から効果的な監視情報を抽出することにより,ノイズラベルによるセグメント化に対処する新しい枠組みを提案する。
特に,各画素の不確かさを画素単位の雑音推定として明確に推定する。
画素レベルの学習を補完する画像レベルの頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T13:33:38Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。