論文の概要: PreMix: Addressing Label Scarcity in Whole Slide Image Classification with Pre-trained Multiple Instance Learning Aggregators
- arxiv url: http://arxiv.org/abs/2408.01162v2
- Date: Fri, 24 Jan 2025 04:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:54:46.005248
- Title: PreMix: Addressing Label Scarcity in Whole Slide Image Classification with Pre-trained Multiple Instance Learning Aggregators
- Title(参考訳): PreMix: 事前学習型複数インスタンス学習アグリゲータを用いた全スライド画像分類におけるラベルの空白化
- Authors: Bryan Wong, Mun Yong Yi,
- Abstract要約: マルチ・インスタンス・ラーニング(MIL)は、弱い教師付き全スライド画像(WSI)分類のための強力なフレームワークとして登場した。
本稿では,非コントラスト事前学習手法であるBarlow Twinsを利用した新しいフレームワークであるPreMixを提案する。
また,様々なWSIトレーニングデータセットとラベルサイズに対して,ベースラインHIPTよりも平均4.7%のF1改善を実現していることを示す。
- 参考スコア(独自算出の注目度): 2.6703221234079946
- License:
- Abstract: Multiple instance learning (MIL) has emerged as a powerful framework for weakly supervised whole slide image (WSI) classification, enabling slide-level predictions without requiring detailed patch-level annotations. However, a key limitation of MIL lies in the underexplored potential of pre-training the MIL aggregator. Most existing approaches train it from scratch, resulting in performance heavily dependent on the number of labeled WSIs, while overlooking the abundance of unlabeled WSIs available in real-world scenarios. To address this, we propose PreMix, a novel framework that leverages a non-contrastive pre-training method, Barlow Twins, augmented with the Slide Mixing approach to generate additional positive pairs and enhance feature learning, particularly under limited labeled WSI conditions. Fine-tuning with Mixup and Manifold Mixup further enhances robustness by effectively handling the diverse sizes of gigapixel WSIs. Experimental results demonstrate that integrating HIPT into PreMix achieves an average F1 improvement of 4.7% over the baseline HIPT across various WSI training datasets and label sizes. These findings underscore its potential to advance WSI classification with limited labeled data and its applicability to real-world histopathology practices. The code is available at https://anonymous.4open.science/r/PreMix
- Abstract(参考訳): 多重インスタンス学習 (MIL) は、詳細なパッチレベルのアノテーションを必要とせずに、スライドレベルの予測を可能にする、弱い教師付き全スライドイメージ(WSI)分類のための強力なフレームワークとして登場した。
しかし、MILの重要な制限は、MILアグリゲータを事前訓練する未発見のポテンシャルにある。
既存のほとんどのアプローチは、それをゼロからトレーニングし、その結果、実世界のシナリオで利用可能なラベルのないWSIの豊富さを見下ろしながら、ラベル付きWSIの数に大きく依存する。
そこで本研究では,非コントラスト事前学習手法であるBarlow Twinsを活用する新しいフレームワークPreMixを提案する。
Mixup と Manifold Mixup による微調整により、ギガピクセル WSI の様々なサイズを効果的に扱うことにより、ロバスト性はさらに向上する。
実験の結果, HIPT を PreMix に統合すると,WSI トレーニングデータセットやラベルサイズに対して, HIPT のベースラインよりも平均 F1 が4.7% 向上することがわかった。
これらの知見は, ラベル付きデータによるWSI分類の進展の可能性と, 実世界における病理組織学の実践への適用性を裏付けるものである。
コードはhttps://anonymous.4open.science/r/PreMixで公開されている。
関連論文リスト
- Rethinking Pre-trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.6703221234079946]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
この結果から,堅牢な自己教師付き学習(SSL)手法の選択は,ドメイン内事前学習データセットのみに依存するよりも,パフォーマンスに大きな影響を与えることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - Slot-Mixup with Subsampling: A Simple Regularization for WSI
Classification [13.286360560353936]
全スライド画像 (WSI) の分類は, がんの診断に関係のある症例は少ないが, 病理医には繰り返しズームイン, アウトが必要である。
パッチレベルのラベルがないため、多重インスタンス学習(MIL)はWSI分類器をトレーニングするための一般的なプラクティスである。
MIL for WSIsの課題の1つは、スライドレベルのラベルから来る弱い監督力であり、しばしば過度なオーバーフィッティングをもたらすことである。
我々のアプローチは、元のスライドの基盤となるセマンティクスを著しく変更することなく、WSIのパッチのサブセットをサンプリングすることで、トレーニングデータセットを強化します。
論文 参考訳(メタデータ) (2023-11-29T09:18:39Z) - Pseudo-Bag Mixup Augmentation for Multiple Instance Learning-Based Whole
Slide Image Classification [18.679580844360615]
我々は,MILモデルのトレーニングを改善するために,Pseudo-bag Mixup (PseMix)データ拡張方式を提案する。
提案手法は,一般画像のMixup戦略を疑似バグにより特別なWSIに一般化する。
効率的で分離された手法として設計されており、時間を要する操作やMILモデルの予測に依存しない。
論文 参考訳(メタデータ) (2023-06-28T13:02:30Z) - ReMix: A General and Efficient Framework for Multiple Instance Learning
based Whole Slide Image Classification [14.78430890440035]
ワイルスライド画像(WSI)分類は、ギガピクセル解像度画像とスライドレベルのラベルを扱うために弱教師付き多重インスタンス学習(MIL)法に依存することが多い。
MILに基づくWSI分類のための汎用的で効率的なフレームワークであるReMixを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:21:35Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - SMILE: Self-Distilled MIxup for Efficient Transfer LEarning [42.59451803498095]
本研究では, SMILE-Self-Distilled Mixup for EffIcient Transfer LEarningを提案する。
混合画像を入力として、SMILEはCNN特徴抽出器の出力を正規化し、入力の混合特徴ベクトルから学習する。
トリプルレギュラライザーは、特徴空間とラベル空間の両方で混合効果のバランスをとりながら、前訓練タスクのサンプル間の線形性をバインドします。
論文 参考訳(メタデータ) (2021-03-25T16:02:21Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Sequence-Level Mixed Sample Data Augmentation [119.94667752029143]
本研究は、シーケンス対シーケンス問題に対するニューラルモデルにおける合成行動を促進するための単純なデータ拡張手法を提案する。
我々の手法であるSeqMixは、トレーニングセットから入力/出力シーケンスをソフトに結合することで、新しい合成例を作成する。
論文 参考訳(メタデータ) (2020-11-18T02:18:04Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。