論文の概要: Domain-Specific Pretraining Improves Confidence in Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2302.09833v1
- Date: Mon, 20 Feb 2023 08:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:09:14.091109
- Title: Domain-Specific Pretraining Improves Confidence in Whole Slide Image
Classification
- Title(参考訳): ドメイン特化事前学習による全スライド画像分類の信頼性向上
- Authors: Soham Rohit Chitnis, Sidong Liu, Tirtharaj Dash, Tanmay Tulsidas
Verlekar, Antonio Di Ieva, Shlomo Berkovsky, Lovekesh Vig, Ashwin Srinivasan
- Abstract要約: デジタル病理学では、全スライド画像(WSI)や病理像が用いられる。
WSIは、臨床診断のためのディープラーニングモデルに大きな課題を提起する。
- 参考スコア(独自算出の注目度): 15.354256205808273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole Slide Images (WSIs) or histopathology images are used in digital
pathology. WSIs pose great challenges to deep learning models for clinical
diagnosis, owing to their size and lack of pixel-level annotations. With the
recent advancements in computational pathology, newer multiple-instance
learning-based models have been proposed. Multiple-instance learning for WSIs
necessitates creating patches and uses the encoding of these patches for
diagnosis. These models use generic pre-trained models (ResNet-50 pre-trained
on ImageNet) for patch encoding. The recently proposed KimiaNet, a DenseNet121
model pre-trained on TCGA slides, is a domain-specific pre-trained model. This
paper shows the effect of domain-specific pre-training on WSI classification.
To investigate the impact of domain-specific pre-training, we considered the
current state-of-the-art multiple-instance learning models, 1) CLAM, an
attention-based model, and 2) TransMIL, a self-attention-based model, and
evaluated the models' confidence and predictive performance in detecting
primary brain tumors - gliomas. Domain-specific pre-training improves the
confidence of the models and also achieves a new state-of-the-art performance
of WSI-based glioma subtype classification, showing a high clinical
applicability in assisting glioma diagnosis.
- Abstract(参考訳): 全スライド画像(WSI)または病理像はデジタル病理学で使用される。
WSIは、そのサイズとピクセルレベルのアノテーションの欠如により、臨床診断のためのディープラーニングモデルに大きな課題を提起する。
近年の計算病理学の発展に伴い,より新しいマルチインスタンス学習モデルが提案されている。
WSIの多重インスタンス学習は、パッチの作成を必要とし、これらのパッチのエンコーディングを使用して診断を行う。
これらのモデルはパッチエンコーディングに一般的な事前トレーニングモデル(imagenetで事前トレーニングされたresnet-50)を使用する。
最近提案されたkimianetは、tcga slidesで事前トレーニングされたdrknet121モデルであり、ドメイン固有の事前トレーニングモデルである。
本稿では,ドメイン固有の事前学習がWSI分類に及ぼす影響を示す。
ドメイン固有の事前学習の影響を調べるために,現在最先端のマルチインスタンス学習モデルを検討した。
1)注意に基づくモデルであるCLAM
2)自己着床モデルであるtransmilは,原発性脳腫瘍(グリオーマ)の検出におけるモデルの信頼性と予測性能を評価した。
ドメイン固有の事前訓練はモデルの信頼性を高め、またwsiベースのグリオーマサブタイプ分類の新たな最先端性能を達成し、グリオーマ診断の補助に高い臨床応用性を示す。
関連論文リスト
- PathoDuet: Foundation Models for Pathological Slide Analysis of H&E and
IHC Stains [2.77305170426095]
PathoDuetは,病理組織像の事前学習モデルであり,病理組織学における新たな自己教師型学習フレームワークである。
このフレームワークは、新しく導入されたプリテキストトークンと後続のタスクライザーによって特徴付けられ、画像間の特定の関係を明示的に活用する。
これに基づいて、ヘマトキシリンとエオシンの画像上でモデルを事前訓練するために、クロススケール位置決めとクロスステイン転送という2つのプレテキストタスクが設計された。
論文 参考訳(メタデータ) (2023-12-15T15:45:52Z) - Glioma subtype classification from histopathological images using
in-domain and out-of-domain transfer learning: An experimental study [9.161480191416551]
成人型びまん性グリオーマのコンピュータ支援分類のための様々な伝達学習戦略と深層学習アーキテクチャを比較した。
半教師付き学習手法を提案し、細調整されたモデルを用いて、スライド画像全体の無注釈領域のラベルを予測する。
モデルはその後、前のステップで決定された接地構造ラベルと弱いラベルを用いて再訓練され、標準のドメイン間転送学習と比較して優れた性能を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:22:17Z) - Forward-Forward Contrastive Learning [4.465144120325802]
医用画像分類のための新しい事前学習手法として,前向きコントラスト学習(FFCL)を提案する。
FFCLは、肺炎分類タスクにおける既存の事前訓練モデルよりも、ImageNet Pretrained ResNet-18よりも3.69%の精度で性能が向上している。
論文 参考訳(メタデータ) (2023-05-04T15:29:06Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - From Modern CNNs to Vision Transformers: Assessing the Performance,
Robustness, and Classification Strategies of Deep Learning Models in
Histopathology [1.8947504307591034]
我々は、広範囲の分類モデルを広範囲に評価する新しい手法を開発した。
広く使用されている5つの病理組織学的データセットを用いて,そのモデルを徹底的に検証した。
既存の解釈可能性手法を拡張し、モデルの分類戦略に関する洞察を体系的に明らかにする。
論文 参考訳(メタデータ) (2022-04-11T12:26:19Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Pay Attention with Focus: A Novel Learning Scheme for Classification of
Whole Slide Images [8.416553728391309]
スライド画像全体(WSI)を解析するための新しい2段階アプローチを提案する。
まず、WSIから代表パッチ(モザイクと呼ばれる)を抽出する。
モザイクの各パッチは、ディープネットワークを用いて特徴ベクトルに符号化される。
第2段階では、WSIから符号化されたパッチレベルの一連の特徴を用いて、一次診断確率を算出する。
論文 参考訳(メタデータ) (2021-06-11T21:59:02Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。