論文の概要: Self supervised contrastive learning for digital histopathology
- arxiv url: http://arxiv.org/abs/2011.13971v2
- Date: Tue, 7 Sep 2021 20:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:50:17.767637
- Title: Self supervised contrastive learning for digital histopathology
- Title(参考訳): デジタル病理学における自己指導型コントラスト学習
- Authors: Ozan Ciga, Tony Xu, Anne L. Martel
- Abstract要約: 我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning has been a long-standing goal of machine learning and
is especially important for medical image analysis, where the learning can
compensate for the scarcity of labeled datasets. A promising subclass of
unsupervised learning is self-supervised learning, which aims to learn salient
features using the raw input as the learning signal. In this paper, we use a
contrastive self-supervised learning method called SimCLR that achieved
state-of-the-art results on natural-scene images and apply this method to
digital histopathology by collecting and pretraining on 57 histopathology
datasets without any labels. We find that combining multiple multi-organ
datasets with different types of staining and resolution properties improves
the quality of the learned features. Furthermore, we find using more images for
pretraining leads to a better performance in multiple downstream tasks. Linear
classifiers trained on top of the learned features show that networks
pretrained on digital histopathology datasets perform better than ImageNet
pretrained networks, boosting task performances by more than 28% in F1 scores
on average. These findings may also be useful when applying newer contrastive
techniques to histopathology data. Pretrained PyTorch models are made publicly
available at https://github.com/ozanciga/self-supervised-histopathology.
- Abstract(参考訳): 教師なし学習は機械学習の長年の目標であり、特に、ラベル付きデータセットの不足を補うことができる医療画像解析において重要である。
教師なし学習の有望なサブクラスは自己教師付き学習であり、生の入力を学習信号として利用して健全な特徴を学習することを目的としている。
本稿では,SimCLR という,自然シーン画像における最先端の成果を得られたコントラスト型自己教師学習手法を用いて,57 個の病理データをラベルなしで収集・事前学習することにより,デジタル病理学に適用する。
複数のマルチオーガンデータセットと異なる種類の染色と解像度特性を組み合わせることで、学習した特徴の品質が向上することがわかった。
さらに、事前トレーニングにより多くの画像を使用すると、複数の下流タスクのパフォーマンスが向上することがわかった。
学習した特徴に基づいてトレーニングされた線形分類器は、デジタル病理学データセットでトレーニングされたネットワークがimagenetでトレーニングされたネットワークよりもパフォーマンスが良く、平均してf1スコアで28%以上のタスクパフォーマンスが向上することを示している。
これらの所見は病理組織学データに新しい対比法を適用する際にも有用である。
事前訓練されたPyTorchモデルはhttps://github.com/ozanciga/self-supervised-histopathologyで公開されている。
関連論文リスト
- Local-to-Global Self-Supervised Representation Learning for Diabetic Retinopathy Grading [0.0]
本研究では,自己指導型学習と知識蒸留を用いた新しいハイブリッド学習モデルを提案する。
我々のアルゴリズムでは、自己教師型学習および知識蒸留モデルの中で初めて、テストデータセットがトレーニングデータセットよりも50%大きい。
類似の最先端モデルと比較すると,より高精度で効率的な表現空間が得られた。
論文 参考訳(メタデータ) (2024-10-01T15:19:16Z) - Are Deep Learning Classification Results Obtained on CT Scans Fair and
Interpretable? [0.0]
ほとんどの肺結節分類論文は、ディープラーニングを用いてランダムにシャッフルし、それをトレーニング、検証、テストセットに分割する。
対照的に、厳密な患者レベルの分離で訓練されたディープニューラルネットワークは、新しい患者画像が検査された場合でも、正確性を維持する。
厳密な患者レベルの分離で訓練されたディープニューラルネットワークの活性化のヒートマップの可視化は、関連する結節に対する集中度が高いことを示している。
論文 参考訳(メタデータ) (2023-09-22T05:57:25Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - HistoKT: Cross Knowledge Transfer in Computational Pathology [31.14107299224401]
CPath (Computer pathology) におけるよく注釈付けられたデータセットの欠如は、医学画像の分類にディープラーニング技術を適用することを妨げている。
ほとんどのトランスファーラーニング研究はモデル中心のアプローチに従っており、ネットワークパラメータをチューニングして、少数のデータセットでのトランスファー結果を改善する。
論文 参考訳(メタデータ) (2022-01-27T00:34:19Z) - Learning Representations with Contrastive Self-Supervised Learning for
Histopathology Applications [8.69535649683089]
コントラスト型自己教師型学習は,デジタル病理学におけるアノテーションの労力を減らしうることを示す。
本研究は,病理組織学応用のための自己教師あり学習の可能性を実現するための道を開くものである。
論文 参考訳(メタデータ) (2021-12-10T16:08:57Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。