論文の概要: Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Bag-Level Classifier is a Good Instance-Level Teacher
- arxiv url: http://arxiv.org/abs/2312.01099v1
- Date: Sat, 2 Dec 2023 10:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 19:03:08.614930
- Title: Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Bag-Level Classifier is a Good Instance-Level Teacher
- Title(参考訳): 全スライド画像分類のための複数インスタンス学習の再考:バグレベル分類器は良いインスタンスレベル教師である
- Authors: Hongyi Wang, Luyang Luo, Fang Wang, Ruofeng Tong, Yen-Wei Chen,
Hongjie Hu, Lanfen Lin, Hao Chen
- Abstract要約: 複数のインスタンス学習は、WSI(Whole Slide Image)分類において約束されている。
既存の手法は一般に2段階のアプローチを採用しており、学習不可能な特徴埋め込み段階と分類器訓練段階からなる。
バッグレベルの分類器は、良いインスタンスレベルの教師になれると提案する。
- 参考スコア(独自算出の注目度): 22.080213609228547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Instance Learning (MIL) has demonstrated promise in Whole Slide
Image (WSI) classification. However, a major challenge persists due to the high
computational cost associated with processing these gigapixel images. Existing
methods generally adopt a two-stage approach, comprising a non-learnable
feature embedding stage and a classifier training stage. Though it can greatly
reduce the memory consumption by using a fixed feature embedder pre-trained on
other domains, such scheme also results in a disparity between the two stages,
leading to suboptimal classification accuracy. To address this issue, we
propose that a bag-level classifier can be a good instance-level teacher. Based
on this idea, we design Iteratively Coupled Multiple Instance Learning (ICMIL)
to couple the embedder and the bag classifier at a low cost. ICMIL initially
fix the patch embedder to train the bag classifier, followed by fixing the bag
classifier to fine-tune the patch embedder. The refined embedder can then
generate better representations in return, leading to a more accurate
classifier for the next iteration. To realize more flexible and more effective
embedder fine-tuning, we also introduce a teacher-student framework to
efficiently distill the category knowledge in the bag classifier to help the
instance-level embedder fine-tuning. Thorough experiments were conducted on
four distinct datasets to validate the effectiveness of ICMIL. The experimental
results consistently demonstrate that our method significantly improves the
performance of existing MIL backbones, achieving state-of-the-art results. The
code is available at: https://github.com/Dootmaan/ICMIL/tree/confidence_based
- Abstract(参考訳): マルチインスタンス学習(MIL)は、WSI(Whole Slide Image)分類において約束されている。
しかし、これらのギガピクセル画像の処理に伴う計算コストが高いため、大きな課題が続いている。
既存の手法は一般に2段階のアプローチを採用しており、学習不可能な特徴埋め込み段階と分類器訓練段階からなる。
他のドメインで事前トレーニングされた固定機能埋め込みを使用することでメモリ消費を大幅に削減できるが、そのようなスキームは2つのステージ間の差異をもたらし、最適以下の分類精度をもたらす。
この問題に対処するために、バッグレベルの分類器は、良いインスタンスレベルの教師になれることを提案する。
このアイデアに基づいて,組込み器とバッグ分類器を低コストで結合するICMIL(Iteratively Coupled Multiple Instance Learning)を設計する。
ICMILは最初、バグ分類器を訓練するためにパッチ埋め込み器を修正し、続いてバグ分類器を修正してパッチ埋め込み器を微調整した。
その後、改良された埋め込み子はより良い表現を生成することができ、次のイテレーションでより正確な分類が可能となる。
さらに,より柔軟で効果的な組込み器の微調整を実現するために,バッグ分類器のカテゴリ知識を効率的に抽出し,インスタンスレベルの組込み器の微調整を支援する教師学習フレームワークを提案する。
ICMILの有効性を検証するために,4つの異なるデータセットを用いて詳細な実験を行った。
実験結果から,本手法は既存のMILバックボーンの性能を大幅に向上し,最先端の結果が得られた。
コードは以下の通りである。 https://github.com/Dootmaan/ICMIL/tree/confidence_based
関連論文リスト
- Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - Iteratively Coupled Multiple Instance Learning from Instance to Bag
Classifier for Whole Slide Image Classification [21.16848269555692]
Whole Slide Image (WSI)分類は、非常に高解像度であり、きめ細かいラベルがないため、依然として課題である。
我々は,バッグレベルの分類器からパッチ埋め込み装置への損失バックプロパゲーションプロセスをブリッジする,ICMIL (Iteratively Coupled MIL) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T06:12:53Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Bi-directional Weakly Supervised Knowledge Distillation for Whole Slide
Image Classification [9.43604501642743]
本稿では,WSI分類のための弱監督型知識蒸留フレームワーク(WENO)を提案する。
本稿では,WSI分類のための弱教師付き知識蒸留フレームワークWENOを提案する。
論文 参考訳(メタデータ) (2022-10-07T16:12:04Z) - ReMix: A General and Efficient Framework for Multiple Instance Learning
based Whole Slide Image Classification [14.78430890440035]
ワイルスライド画像(WSI)分類は、ギガピクセル解像度画像とスライドレベルのラベルを扱うために弱教師付き多重インスタンス学習(MIL)法に依存することが多い。
MILに基づくWSI分類のための汎用的で効率的なフレームワークであるReMixを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:21:35Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Dual-stream Maximum Self-attention Multi-instance Learning [11.685285490589981]
MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
ニューラルネットワークによりパラメータ化されたDSMILモデル(Dual-stream maximum self-attention MIL model)を提案する。
提案手法は,最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2020-06-09T22:44:58Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。