論文の概要: Global Contrast Masked Autoencoders Are Powerful Pathological
Representation Learners
- arxiv url: http://arxiv.org/abs/2205.09048v1
- Date: Wed, 18 May 2022 16:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:30:16.657096
- Title: Global Contrast Masked Autoencoders Are Powerful Pathological
Representation Learners
- Title(参考訳): グローバルコントラストマスク自動エンコーダは強力な病理表現学習者である
- Authors: Hao Quan, Xingyu Li, Weixing Chen, Mingchen Zou, Ruijie Yang, Tingting
Zheng, Ruiqun Qi, Xinghua Gao, Xiaoyu Cui
- Abstract要約: 自己教師付き学習(SSL)モデルであるGCMAE(Global Contrast Masked Autoencoders)を提案する。
提案手法は,従来の最先端アルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 3.0354760313198796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on digital whole slide scanning technique, artificial intelligence
algorithms represented by deep learning have achieved remarkable results in the
field of computational pathology. Compared with other medical images such as
Computed Tomography (CT) or Magnetic Resonance Imaging (MRI), pathological
images are more difficult to annotate, thus there is an extreme lack of data
sets that can be used for supervised learning. In this study, a self-supervised
learning (SSL) model, Global Contrast Masked Autoencoders (GCMAE), is proposed,
which has the ability to represent both global and local domain-specific
features of whole slide image (WSI), as well as excellent cross-data transfer
ability. The Camelyon16 and NCTCRC datasets are used to evaluate the
performance of our model. When dealing with transfer learning tasks with
different data sets, the experimental results show that GCMAE has better linear
classification accuracy than MAE, which can reach 81.10% and 89.22%
respectively. Our method outperforms the previous state-of-the-art algorithm
and even surpass supervised learning (improved by 3.86% on NCTCRC data sets).
The source code of this paper is publicly available at
https://github.com/StarUniversus/gcmae
- Abstract(参考訳): ディープラーニングで表現される人工知能アルゴリズムは,デジタル全スライドスキャン技術に基づいて,計算病理学の分野で顕著な成果を上げている。
CT(CT)やMRI(MRI)などの他の医用画像と比較すると,病理像の注釈が難しいため,教師あり学習に使用できるデータセットが極めて少ない。
本研究では,自己教師付き学習(SSL)モデルであるGCMAE(Global Contrast Masked Autoencoders)を提案する。
Camelyon16およびNCTCRCデータセットを用いて,本モデルの性能評価を行った。
異なるデータセットで転送学習タスクを扱う場合、実験結果はGCMAEがMAEよりも線形分類精度が良く、それぞれ81.10%と89.22%に達することを示した。
本手法は,従来の最先端アルゴリズムを上回り,教師付き学習(nctcrcデータセットでは3.86%改善)を超越する。
本論文のソースコードはhttps://github.com/StarUniversus/gcmaeで公開されている。
関連論文リスト
- HistoSPACE: Histology-Inspired Spatial Transcriptome Prediction And Characterization Engine [0.0]
HistoSPACEモデルは、STデータで利用可能な組織像の多様性を調べ、組織像から分子的洞察を抽出する。
モデルは、現代のアルゴリズムと比較して大きな効率性を示し、残余のクロスバリデーションにおいて0.56の相関関係を示す。
論文 参考訳(メタデータ) (2024-08-07T07:12:52Z) - Feature Representation Learning for Robust Retinal Disease Detection
from Optical Coherence Tomography Images [0.0]
眼科画像は、異なる網膜変性疾患を区別する自動化技術で失敗する、同一の外観の病理を含んでいる可能性がある。
本研究では,3つの学習ヘッドを持つ堅牢な疾患検出アーキテクチャを提案する。
2つのOCTデータセットによる実験結果から,提案モデルが既存の最先端モデルよりも精度,解釈可能性,堅牢性に優れ,網膜外網膜疾患の検出に有用であることが示唆された。
論文 参考訳(メタデータ) (2022-06-24T07:59:36Z) - Deepfake histological images for enhancing digital pathology [0.40631409309544836]
我々は,クラスラベルに制約された病理像を合成する生成逆ネットワークモデルを開発した。
前立腺および大腸組織像の合成におけるこの枠組みの有用性について検討した。
大腸生検によるより複雑な画像へのアプローチを拡張し,そのような組織における複雑な微小環境も再現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:11:08Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology [7.568373895297608]
このような画像を分析する上で重要な課題は、そのサイズであり、そのサイズはギガピクセルに収まる。
本稿では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
我々のモデルは、異なる臨床エンドポイントに使用できる強力な表現を同時に学習しながら、細部で異なる組織タイプを生成することを学習する。
論文 参考訳(メタデータ) (2021-09-07T19:20:01Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。