論文の概要: Self-Supervision Closes the Gap Between Weak and Strong Supervision in
Histology
- arxiv url: http://arxiv.org/abs/2012.03583v1
- Date: Mon, 7 Dec 2020 10:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:00:27.469798
- Title: Self-Supervision Closes the Gap Between Weak and Strong Supervision in
Histology
- Title(参考訳): 自己監督が弱体化と強体化のギャップを埋める-歴史学
- Authors: Olivier Dehaene, Axel Camara, Olivier Moindrot, Axel de Lavergne,
Pierre Courtiol
- Abstract要約: 近年の自己教師付き学習アルゴリズムであるmoco v2を用いて,組織像の領域内特徴抽出器を訓練する。
Camelyon16 と TCGA の実験結果から,提案した抽出器は ImageNet よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the biggest challenges for applying machine learning to histopathology
is weak supervision: whole-slide images have billions of pixels yet often only
one global label. The state of the art therefore relies on strongly-supervised
model training using additional local annotations from domain experts. However,
in the absence of detailed annotations, most weakly-supervised approaches
depend on a frozen feature extractor pre-trained on ImageNet. We identify this
as a key weakness and propose to train an in-domain feature extractor on
histology images using MoCo v2, a recent self-supervised learning algorithm.
Experimental results on Camelyon16 and TCGA show that the proposed extractor
greatly outperforms its ImageNet counterpart. In particular, our results
improve the weakly-supervised state of the art on Camelyon16 from 91.4% to
98.7% AUC, thereby closing the gap with strongly-supervised models that reach
99.3% AUC. Through these experiments, we demonstrate that feature extractors
trained via self-supervised learning can act as drop-in replacements to
significantly improve existing machine learning techniques in histology.
Lastly, we show that the learned embedding space exhibits biologically
meaningful separation of tissue structures.
- Abstract(参考訳): 機械学習を病理学に適用する上で最大の課題のひとつは、監督の弱さだ。
したがって、最先端技術は、ドメインの専門家による追加のローカルアノテーションを使用した、強力な教師付きモデルトレーニングに依存している。
しかし、詳細なアノテーションがないため、最も弱い教師付きアプローチはImageNetで事前訓練された凍結した特徴抽出器に依存する。
本稿では,近年の自己教師付き学習アルゴリズムであるmoco v2を用いて,組織像に対してドメイン内特徴抽出器を訓練することを提案する。
Camelyon16 と TCGA の実験結果から,提案した抽出器は ImageNet よりも大幅に優れていた。
特に,本研究では,カメリヨン16の弱監督状態が91.4%から98.7%に向上し,99.3%のaucに達する強監督モデルとのギャップを解消した。
これらの実験を通じて,自己教師付き学習によって訓練された特徴抽出器が,組織学における既存の機械学習技術を大幅に改善するためのドロップイン代替として機能することを示す。
最後に, 組織構造の生物学的に有意な分離が認められた。
関連論文リスト
- Enhancing Weakly-Supervised Histopathology Image Segmentation with Knowledge Distillation on MIL-Based Pseudo-Labels [8.934328206473456]
病理組織像分割のための新しい蒸留フレームワークを提案する。
この枠組みは, 学生が教師の総合的な成果から直接学習できる, 反復的融合知識蒸留戦略を導入している。
論文 参考訳(メタデータ) (2024-07-14T17:15:47Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Localized Region Contrast for Enhancing Self-Supervised Learning in
Medical Image Segmentation [27.82940072548603]
本稿では,地域コントラスト(LRC)を統合した新しいコントラスト学習フレームワークを提案する。
提案手法では,Felzenszwalbのアルゴリズムによるスーパーピクセルの同定と,新しいコントラッシブサンプリング損失を用いた局所コントラスト学習を行う。
論文 参考訳(メタデータ) (2023-04-06T22:43:13Z) - Extending global-local view alignment for self-supervised learning with remote sensing imagery [1.5192294544599656]
自己教師付きモデルは、大量のラベルのないデータに対して擬似ラベルを生成するプレテキストタスクを定式化することにより、一般的な特徴表現を取得する。
DINOに触発されて、リモートセンシング画像(SSLRS)を用いた自己教師型学習のための2つのプレテキストタスクを定式化した。
我々は,DINOを拡張し,単一の固定サイズではなく,様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
論文 参考訳(メタデータ) (2023-03-12T14:24:10Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Classification of Microscopy Images of Breast Tissue: Region Duplication
based Self-Supervision vs. Off-the Shelf Deep Representations [0.0]
本稿では、畳み込みニューラルネットワーク(CNN)を訓練し、ドメイン固有の特徴を抽出する、新しい自己超越プレテキストタスクを提案する。
その結果,ResNet50を用いて抽出した深部機能に対して,パッチレベルの埋め込みを併用した99%の感度の最高の性能が得られた。
論文 参考訳(メタデータ) (2022-02-12T14:12:13Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Evaluating the Robustness of Self-Supervised Learning in Medical Imaging [57.20012795524752]
自己監督は、小さな注釈付きデータセット上でターゲットタスクを訓練する際の効果的な学習戦略であることを示した。
本研究では,自己監視学習によって訓練されたネットワークが,医療画像の文脈における完全監視学習と比較して,堅牢性と汎用性に優れていることを示した。
論文 参考訳(メタデータ) (2021-05-14T17:49:52Z) - Contrastive Learning of Single-Cell Phenotypic Representations for
Treatment Classification [6.4265933507484005]
薬物開発の取り組みは、一般的に数千の細胞画像を分析して治療の可能性を見極める。
コントラスト学習フレームワークを利用して,単一セル蛍光顕微鏡画像から適切な表現を学習する。
NCSBの精度は10%向上し,NSC-NSCBは11%低下した。
論文 参考訳(メタデータ) (2021-03-30T20:29:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。