論文の概要: Slot-Mixup with Subsampling: A Simple Regularization for WSI
Classification
- arxiv url: http://arxiv.org/abs/2311.17466v1
- Date: Wed, 29 Nov 2023 09:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 22:08:57.860594
- Title: Slot-Mixup with Subsampling: A Simple Regularization for WSI
Classification
- Title(参考訳): サブサンプル付きスロットミックスアップ:wsi分類のための簡単な正規化
- Authors: Seongho Keum, Sanghyun Kim, Soojeong Lee, Juho Lee
- Abstract要約: 全スライド画像 (WSI) の分類は, がんの診断に関係のある症例は少ないが, 病理医には繰り返しズームイン, アウトが必要である。
パッチレベルのラベルがないため、多重インスタンス学習(MIL)はWSI分類器をトレーニングするための一般的なプラクティスである。
MIL for WSIsの課題の1つは、スライドレベルのラベルから来る弱い監督力であり、しばしば過度なオーバーフィッティングをもたらすことである。
我々のアプローチは、元のスライドの基盤となるセマンティクスを著しく変更することなく、WSIのパッチのサブセットをサンプリングすることで、トレーニングデータセットを強化します。
- 参考スコア(独自算出の注目度): 13.286360560353936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whole slide image (WSI) classification requires repetitive zoom-in and out
for pathologists, as only small portions of the slide may be relevant to
detecting cancer. Due to the lack of patch-level labels, multiple instance
learning (MIL) is a common practice for training a WSI classifier. One of the
challenges in MIL for WSIs is the weak supervision coming only from the
slide-level labels, often resulting in severe overfitting. In response,
researchers have considered adopting patch-level augmentation or applying mixup
augmentation, but their applicability remains unverified. Our approach augments
the training dataset by sampling a subset of patches in the WSI without
significantly altering the underlying semantics of the original slides.
Additionally, we introduce an efficient model (Slot-MIL) that organizes patches
into a fixed number of slots, the abstract representation of patches, using an
attention mechanism. We empirically demonstrate that the subsampling
augmentation helps to make more informative slots by restricting the
over-concentration of attention and to improve interpretability. Finally, we
illustrate that combining our attention-based aggregation model with
subsampling and mixup, which has shown limited compatibility in existing MIL
methods, can enhance both generalization and calibration. Our proposed methods
achieve the state-of-the-art performance across various benchmark datasets
including class imbalance and distribution shifts.
- Abstract(参考訳): 全スライド画像 (WSI) の分類は, がんの診断に関係のある症例は少ないが, 病理医には繰り返しズームインとアウトが必要である。
パッチレベルのラベルがないため、多重インスタンス学習(MIL)はWSI分類器をトレーニングするための一般的なプラクティスである。
MIL for WSIsの課題の1つは、スライドレベルのラベルから来る弱い監督力であり、しばしば過度なオーバーフィッティングをもたらすことである。
これに対し、研究者はパッチレベルの強化やミックスアップの強化の導入を検討したが、その適用性は検証されていない。
我々のアプローチは、元のスライドの基盤となるセマンティクスを著しく変更することなく、WSIのパッチのサブセットをサンプリングすることでトレーニングデータセットを強化します。
さらに、アテンション機構を用いて、パッチを固定数のスロットに整理する効率的なモデル(Slot-MIL)を導入する。
提案手法は,注意の集中度を制限し,解釈性を向上させることで,より有用なスロットを作成できることを実証的に実証する。
最後に、我々の注意に基づく集約モデルとサブサンプリングとミックスアップを組み合わせることで、既存のMIL手法との互換性が限定され、一般化とキャリブレーションの両立が図れることを示す。
提案手法は,クラス不均衡や分散シフトを含む様々なベンチマークデータセットにおける最先端性能を実現する。
関連論文リスト
- MergeUp-augmented Semi-Weakly Supervised Learning for WSI Classification [1.2387547097768696]
多重インスタンス学習(MIL)は、WSI分類のための弱い教師付き学習手法である。
機能拡張技術であるMergeUpを導入し、低優先度のバッグをマージしてカテゴリ間情報を強化する。
CAMELYON-16, BRACS, TCGA-LUNGデータセットによる実験結果から, 既存の最先端手法よりも本手法の方が優れていることが示された。
論文 参考訳(メタデータ) (2024-08-23T04:08:30Z) - Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - PreMix: Boosting Multiple Instance Learning in Digital Histopathology through Pre-training with Intra-Batch Slide Mixing [2.6703221234079946]
PreMixは、MILアグリゲータをバッチ内スライド混合アプローチで事前トレーニングすることで、一般的なMILフレームワークを拡張している。
ベースラインのMILフレームワークよりもパフォーマンスが4.7%向上している。
結局のところ、PreMixは、限定されたWSIラベルのデータセットの下で、より効率的で正確なWSI分類の道を開いた。
論文 参考訳(メタデータ) (2024-08-02T10:24:35Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Compact and De-biased Negative Instance Embedding for Multi-Instance
Learning on Whole-Slide Image Classification [3.2721526745176144]
半超音波信号を導入し、スライディング間の変動を抑えるとともに、通常のパッチの変動の共通要因を捉える。
本手法は,カメリオン16およびTGA肺がんを含む2つのWSIデータセットを用いて検討した。
論文 参考訳(メタデータ) (2024-02-16T11:28:50Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。