論文の概要: Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Good Instance Classifier is All You Need
- arxiv url: http://arxiv.org/abs/2307.02249v1
- Date: Wed, 5 Jul 2023 12:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 13:57:42.366354
- Title: Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Good Instance Classifier is All You Need
- Title(参考訳): 全スライド画像分類のための複数インスタンス学習の再考: よいインスタンス分類器は必要なだけ
- Authors: Linhao Qu, Yingfan Ma, Xiaoyuan Luo, Manning Wang, and Zhijian Song
- Abstract要約: MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
- 参考スコア(独自算出の注目度): 8.05118395413556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised whole slide image classification is usually formulated as a
multiple instance learning (MIL) problem, where each slide is treated as a bag,
and the patches cut out of it are treated as instances. Existing methods either
train an instance classifier through pseudo-labeling or aggregate instance
features into a bag feature through attention mechanisms and then train a bag
classifier, where the attention scores can be used for instance-level
classification. However, the pseudo instance labels constructed by the former
usually contain a lot of noise, and the attention scores constructed by the
latter are not accurate enough, both of which affect their performance. In this
paper, we propose an instance-level MIL framework based on contrastive learning
and prototype learning to effectively accomplish both instance classification
and bag classification tasks. To this end, we propose an instance-level weakly
supervised contrastive learning algorithm for the first time under the MIL
setting to effectively learn instance feature representation. We also propose
an accurate pseudo label generation method through prototype learning. We then
develop a joint training strategy for weakly supervised contrastive learning,
prototype learning, and instance classifier training. Extensive experiments and
visualizations on four datasets demonstrate the powerful performance of our
method. Codes will be available.
- Abstract(参考訳): 弱教師付き全スライド画像分類は通常、多重インスタンス学習(MIL)問題として定式化され、各スライドはバッグとして扱われ、そこから取り出されたパッチはインスタンスとして扱われる。
既存のメソッドでは、擬似ラベルでインスタンス分類器を訓練するか、アテンション機構を介してバッグの特徴を集約し、バッグ分類器を訓練し、アテンションスコアをインスタンスレベルの分類に使用できる。
しかしながら、前者によって構築された擬似インスタンスラベルは、通常多くのノイズを含み、後者によって構築された注目スコアは十分正確ではなく、どちらもパフォーマンスに影響する。
本稿では,インスタンス分類とバッグ分類の両タスクを効果的に実現するために,コントラスト学習とプロトタイプ学習に基づくインスタンスレベルのmilフレームワークを提案する。
そこで本研究では,MIL設定下でインスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案し,インスタンスの特徴表現を効果的に学習する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
次に,弱い教師付きコントラスト学習,プロトタイプ学習,インスタンス分類訓練のための合同学習戦略を開発した。
4つのデータセットの大規模な実験と可視化は、我々の手法の強力な性能を示す。
コードは利用可能だ。
関連論文リスト
- Rethinking Multiple Instance Learning: Developing an Instance-Level Classifier via Weakly-Supervised Self-Training [14.16923025335549]
複数インスタンス学習(MIL)問題は現在、バッグ分類またはインスタンス分類の観点から解決されている。
我々は、MILを半教師付きインスタンス分類問題として定式化し、ラベル付きインスタンスとラベルなしインスタンスを全て活用できるようにした。
本稿では,正の袋ラベルを用いてグローバルな制約を構築する,弱教師付き自己学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T01:53:41Z) - Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Bag-Level Classifier is a Good Instance-Level Teacher [22.080213609228547]
複数のインスタンス学習は、WSI(Whole Slide Image)分類において約束されている。
既存の手法は一般に2段階のアプローチを採用しており、学習不可能な特徴埋め込み段階と分類器訓練段階からなる。
バッグレベルの分類器は、良いインスタンスレベルの教師になれると提案する。
論文 参考訳(メタデータ) (2023-12-02T10:16:03Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - Multiple Instance Learning via Iterative Self-Paced Supervised
Contrastive Learning [22.07044031105496]
バッグレベルのラベルのみが利用可能な場合の個々のインスタンスの学習表現は、MIL(Multiple Case Learning)の課題である。
我々は、MIL表現のための新しいフレームワーク、Iterative Self-paced Supervised Contrastive Learning (ItS2CLR)を提案する。
バッグレベルのラベルから派生したインスタンスレベルの擬似ラベルを活用することで、学習された表現を改善する。
論文 参考訳(メタデータ) (2022-10-17T21:43:32Z) - Bi-directional Weakly Supervised Knowledge Distillation for Whole Slide
Image Classification [9.43604501642743]
本稿では,WSI分類のための弱監督型知識蒸留フレームワーク(WENO)を提案する。
本稿では,WSI分類のための弱教師付き知識蒸留フレームワークWENOを提案する。
論文 参考訳(メタデータ) (2022-10-07T16:12:04Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。