論文の概要: Multi-modal Masked Autoencoders Learn Compositional Histopathological
Representations
- arxiv url: http://arxiv.org/abs/2209.01534v1
- Date: Sun, 4 Sep 2022 05:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:56:16.693867
- Title: Multi-modal Masked Autoencoders Learn Compositional Histopathological
Representations
- Title(参考訳): マルチモーダルマスクオートエンコーダは構成的病理組織学的表現を学習する
- Authors: Wisdom Oluchi Ikezogwo, Mehmet Saygin Seyfioglu, Linda Shapiro
- Abstract要約: Masked Autoencoders (MAE) はデジタル病理学に適した最近のSSL方式である。
ヘマトキシリンおよびエオシン染色WSIの特異な組成性を利用するマルチモーダルMAE(MMAE)を導入する。
その結果,MMAEアーキテクチャは8クラス組織表現型タスクにおいて,教師付きベースラインや他の最先端SSL技術よりも優れていた。
- 参考スコア(独自算出の注目度): 3.2780506066663655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) enables learning useful inductive biases
through utilizing pretext tasks that require no labels. The unlabeled nature of
SSL makes it especially important for whole slide histopathological images
(WSIs), where patch-level human annotation is difficult. Masked Autoencoders
(MAE) is a recent SSL method suitable for digital pathology as it does not
require negative sampling and requires little to no data augmentations.
However, the domain shift between natural images and digital pathology images
requires further research in designing MAE for patch-level WSIs. In this paper,
we investigate several design choices for MAE in histopathology. Furthermore,
we introduce a multi-modal MAE (MMAE) that leverages the specific
compositionality of Hematoxylin & Eosin (H&E) stained WSIs. We performed our
experiments on the public patch-level dataset NCT-CRC-HE-100K. The results show
that the MMAE architecture outperforms supervised baselines and other
state-of-the-art SSL techniques for an eight-class tissue phenotyping task,
utilizing only 100 labeled samples for fine-tuning. Our code is available at
https://github.com/wisdomikezogwo/MMAE_Pathology
- Abstract(参考訳): 自己教師付き学習(SSL)は、ラベルを必要としないプレテキストタスクを利用することで、有益な帰納バイアスの学習を可能にする。
SSLのラベルのない性質は、パッチレベルの人間のアノテーションが難しいスライド組織像全体(WSI)において特に重要である。
Masked Autoencoders (MAE) は、ネガティブサンプリングを必要とせず、データ拡張をほとんど必要とせず、デジタル病理学に適した最近のSSLメソッドである。
しかし、自然画像とデジタル病理画像とのドメインシフトは、パッチレベルのWSIのためのMAEの設計においてさらなる研究が必要である。
本稿では, 病理組織学におけるMAEの設計選択について検討する。
さらに,Hematoxylin & Eosin(H&E)染色WSIの特異な組成性を利用した多モードMAE(MMAE)を導入する。
公開パッチレベルのデータセットNCT-CRC-HE-100Kで実験を行った。
その結果,MMAEアーキテクチャは8種類の組織表現型タスクにおいて,教師付きベースラインや他の最先端SSL技術よりも優れており,100個のラベル付きサンプルのみを用いて微調整を行った。
私たちのコードはhttps://github.com/wisdomikezogwo/mmae_pathologyで利用可能です。
関連論文リスト
- Multistain Pretraining for Slide Representation Learning in Pathology [7.564260323883271]
自己教師付き学習モデルは、全スライド画像の普遍的および伝達可能な表現を学習することができる。
スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを導入する。
マドレーヌが様々な下流評価で学んだスライド表現の質を実証する。
論文 参考訳(メタデータ) (2024-08-05T22:59:50Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for Histopathological Image Segmentation [5.049466204159458]
自己教師付き学習(SSL)は、注釈のないデータのみを利用するモデルを構築することで、いくつかの欠点を提供する代替パラダイムである。
本稿では,生成拡散モデルを用いて病理像をセグメント化するためのSSLアプローチを提案する。
本手法は,拡散モデルがセグメント化タスクに似た画像から画像への変換タスクを効果的に解くことに基づく。
論文 参考訳(メタデータ) (2023-09-04T09:49:24Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Self Supervised Learning for Few Shot Hyperspectral Image Classification [57.2348804884321]
HSI分類に自己監督学習(SSL)を活用することを提案する。
最先端のSSLアルゴリズムであるBarlow-Twinsを用いて,ラベルのない画素にエンコーダを事前学習することにより,少数のラベルを持つ正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-06-24T07:21:53Z) - Global Contrast Masked Autoencoders Are Powerful Pathological
Representation Learners [11.162001837248166]
本稿では,自己教師付き学習モデルであるGCMAE(Global contrast-masked Autoencoder)を提案する。
GCMAEは3つの異なる疾患特異的ヘマトキシリンとエオシン(HE)染色された病理データセットを用いて、広範囲にわたる実験により、再現性のある表現を学習する能力を示した。
論文 参考訳(メタデータ) (2022-05-18T16:28:56Z) - Self-distillation Augmented Masked Autoencoders for Histopathological
Image Classification [11.573165017470867]
自己教師付き学習(SSL)を生成パラダイムから構築するマスク付きオートエンコーダ(MAE)は、おそらくより適切な事前トレーニングである。
新しいSD-MAEモデルが提案され, 自己蒸留型MAEが実現された。
実験により、SD-MAEは他のSSLメソッドと比較して高い競合性能を示すことが示された。
論文 参考訳(メタデータ) (2022-03-31T12:09:20Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - DSAL: Deeply Supervised Active Learning from Strong and Weak Labelers
for Biomedical Image Segmentation [13.707848142719424]
アクティブ学習とセミスーパーバイザー学習戦略を組み合わせた深層アクティブセミスーパーバイザー学習フレームワークDSALを提案します。
DSALでは, 深層監視機構に基づく新たな基準が提案され, 高い不確実性を有する情報サンプルを選定する。
提案した基準を用いて,強ラベルと弱ラベルのサンプルを選択し,各アクティブな学習イテレーションにおいて,オラクルラベルと擬似ラベルを同時に生成する。
論文 参考訳(メタデータ) (2021-01-22T11:31:33Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。