論文の概要: Deep Interactive Learning-based ovarian cancer segmentation of
H&E-stained whole slide images to study morphological patterns of BRCA
mutation
- arxiv url: http://arxiv.org/abs/2203.15015v1
- Date: Mon, 28 Mar 2022 18:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 16:37:30.220548
- Title: Deep Interactive Learning-based ovarian cancer segmentation of
H&E-stained whole slide images to study morphological patterns of BRCA
mutation
- Title(参考訳): 深い対話型学習に基づく全スライド画像の卵巣癌分節化によるBRCA変異の形態学的解析
- Authors: David Joon Ho, M. Herman Chui, Chad M. Vanderbilt, Jiwon Jung, Mark E.
Robson, Chan-Sik Park, Jin Roh, Thomas J. Fuchs
- Abstract要約: 我々は,手動アノテーションの時間を削減するために,異なるがんタイプから事前訓練したセグメンテーションモデルを用いたDeep Interactive Learningを提案する。
術前乳房分節モデルを用いた卵巣癌分節モデルの訓練を3.5時間行い,0.74,0.86,精度0.84を達成した。
- 参考スコア(独自算出の注目度): 1.763687468970535
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has been widely used to analyze digitized hematoxylin and eosin
(H&E)-stained histopathology whole slide images. Automated cancer segmentation
using deep learning can be used to diagnose malignancy and to find novel
morphological patterns to predict molecular subtypes. To train pixel-wise
cancer segmentation models, manual annotation from pathologists is generally a
bottleneck due to its time-consuming nature. In this paper, we propose Deep
Interactive Learning with a pretrained segmentation model from a different
cancer type to reduce manual annotation time. Instead of annotating all pixels
from cancer and non-cancer regions on giga-pixel whole slide images, an
iterative process of annotating mislabeled regions from a segmentation model
and training/finetuning the model with the additional annotation can reduce the
time. Especially, employing a pretrained segmentation model can further reduce
the time than starting annotation from scratch. We trained an accurate ovarian
cancer segmentation model with a pretrained breast segmentation model by 3.5
hours of manual annotation which achieved intersection-over-union of 0.74,
recall of 0.86, and precision of 0.84. With automatically extracted high-grade
serous ovarian cancer patches, we attempted to train another deep learning
model to predict BRCA mutation. The segmentation model and code have been
released at https://github.com/MSKCC-Computational-Pathology/DMMN-ovary.
- Abstract(参考訳): 深層学習は、デジタル化されたヘマトキシリンとエオシン(H&E)によるスライド画像全体の病理組織学的解析に広く用いられている。
深層学習を用いた自動癌セグメンテーションは悪性腫瘍の診断や、分子サブタイプを予測する新しい形態学的パターンを見つけるために用いられる。
ピクセル単位でのがんセグメンテーションモデルをトレーニングするには、病理学者の手動アノテーションが一般的にボトルネックとなる。
本稿では,異なるがんタイプから事前訓練したセグメンテーションモデルを用いたDeep Interactive Learningを提案し,手動のアノテーション時間を短縮する。
ガンおよび非がん領域からのすべてのピクセルをgiga-pixel全体のスライドイメージにアノテートする代わりに、セグメンテーションモデルから誤記された領域にアノテートし、追加のアノテーションでモデルをトレーニング/微調整する反復プロセスが時間を短縮することができる。
特に、事前訓練されたセグメンテーションモデルを使用することで、アノテーションをスクラッチから始めるよりも時間が短縮できる。
術前乳房分節モデルを用いた卵巣癌分節モデルの訓練を3.5時間行い,0.74,0.86,精度0.84を達成した。
卵巣癌を自動抽出し,BRCA変異を予測するための深部学習モデルを構築した。
セグメンテーションモデルとコードはhttps://github.com/MSKCC-Computational-Pathology/DMMN-ovaryでリリースされた。
関連論文リスト
- Histopathological Image Classification with Cell Morphology Aware Deep Neural Networks [11.749248917866915]
本稿では,細胞形態を学習し,多数のがんタイプを同定するために事前訓練した新しいDeepCMorphモデルを提案する。
7175例の8736例の診断スライドから抽出した270K以上の組織パッチからなるPan-Cancer TCGAデータセット上で,本モジュールを事前訓練した。
提案手法は, 82%以上の精度で32種類の癌を検出でき, 従来提案されていたすべてのソリューションを4%以上上回る性能を示した。
論文 参考訳(メタデータ) (2024-07-11T16:03:59Z) - Shape Matters: Detecting Vertebral Fractures Using Differentiable
Point-Based Shape Decoding [51.38395069380457]
変性性脊椎疾患は高齢者に多い。
骨粗しょう性骨折やその他の変性変形性骨折のタイムリーな診断は、重度の腰痛や障害のリスクを軽減するための前向きな処置を促進する。
本研究では,脊椎動物に対する形状自動エンコーダの使用について検討する。
論文 参考訳(メタデータ) (2023-12-08T18:11:22Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Feature-enhanced Adversarial Semi-supervised Semantic Segmentation
Network for Pulmonary Embolism Annotation [6.142272540492936]
本研究は,肺塞栓病変領域を自動診断する機能強化逆行性半教師付きセマンティックセマンティックセグメンテーションモデルを構築した。
近年のPEAイメージセグメンテーション手法は,教師あり学習によって訓練されている。
本研究では,少量の未ラベル画像を追加することで,異なるデータセットに適用可能なモデルを構築するための半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-08T04:21:02Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Metastatic Cancer Image Classification Based On Deep Learning Method [7.832709940526033]
画像分類におけるディープラーニングアルゴリズム, DenseNet169 フレームワーク, Rectified Adam 最適化アルゴリズムを併用したNoval法を提案する。
我々のモデルは、Vgg19、Resnet34、Resnet50のような他の古典的畳み込みニューラルネットワークアプローチよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-13T16:04:39Z) - Detection of prostate cancer in whole-slide images through end-to-end
training with image-level labels [8.851215922158753]
本稿では,4712前立腺生検において,2100万のパラメータを終端とする最新のCNN(ResNet-34)をトレーニングするために,畳み込み層のストリーミング実装を提案する。
この方法では、GPUメモリの要求を2.4TB削減することで、バイオプシー画像全体を高解像度で直接使用することができる。
論文 参考訳(メタデータ) (2020-06-05T12:11:35Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。