論文の概要: Multi-Stain Multi-Level Convolutional Network for Multi-Tissue Breast Cancer Image Segmentation
- arxiv url: http://arxiv.org/abs/2406.05828v1
- Date: Sun, 9 Jun 2024 15:35:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 17:47:48.425310
- Title: Multi-Stain Multi-Level Convolutional Network for Multi-Tissue Breast Cancer Image Segmentation
- Title(参考訳): 多段階乳がん画像分割のための多段階多段階畳み込みネットワーク
- Authors: Akash Modi, Sumit Kumar Jha, Purnendu Mishra, Rajiv Kumar, Kiran Aatre, Gursewak Singh, Shubham Mathur,
- Abstract要約: 病理組織学のための新しい畳み込みニューラルネットワーク(CNN)を提案する。
本モデルでは, 折り畳み, アーティファクト, ぼやけた領域, バブルなどの悪い領域を, 多段階のコンテキストを用いて組織領域から分離することができる。
トレーニングパイプラインでは、コンテキスト認識による拡張を使用して、1200万のパッチを生成しました。
- 参考スコア(独自算出の注目度): 5.572436001833252
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Digital pathology and microscopy image analysis are widely employed in the segmentation of digitally scanned IHC slides, primarily to identify cancer and pinpoint regions of interest (ROI) indicative of tumor presence. However, current ROI segmentation models are either stain-specific or suffer from the issues of stain and scanner variance due to different staining protocols or modalities across multiple labs. Also, tissues like Ductal Carcinoma in Situ (DCIS), acini, etc. are often classified as Tumors due to their structural similarities and color compositions. In this paper, we proposed a novel convolutional neural network (CNN) based Multi-class Tissue Segmentation model for histopathology whole-slide Breast slides which classify tumors and segments other tissue regions such as Ducts, acini, DCIS, Squamous epithelium, Blood Vessels, Necrosis, etc. as a separate class. Our unique pixel-aligned non-linear merge across spatial resolutions empowers models with both local and global fields of view for accurate detection of various classes. Our proposed model is also able to separate bad regions such as folds, artifacts, blurry regions, bubbles, etc. from tissue regions using multi-level context from different resolutions of WSI. Multi-phase iterative training with context-aware augmentation and increasing noise was used to efficiently train a multi-stain generic model with partial and noisy annotations from 513 slides. Our training pipeline used 12 million patches generated using context-aware augmentations which made our model stain and scanner invariant across data sources. To extrapolate stain and scanner invariance, our model was evaluated on 23000 patches which were for a completely new stain (Hematoxylin and Eosin) from a completely new scanner (Motic) from a different lab. The mean IOU was 0.72 which is on par with model performance on other data sources and scanners.
- Abstract(参考訳): デジタル病理学と顕微鏡画像解析は、主に腫瘍の存在を示唆するがんおよびピンポイント領域(ROI)を特定するために、デジタルスキャンされたICCスライドのセグメンテーションに広く用いられている。
しかし、現在のROIセグメンテーションモデルでは、染色プロトコルが異なるか、複数の研究室にまたがるモダリティが原因で、染色やスキャナのばらつきに悩まされている。
また、シトゥの直腸癌(DCIS)やアシニなどの組織は、その構造的類似性や色組成から、しばしば腫瘍に分類される。
本稿では, 腫瘍, 腺, DCIS, 扁平上皮, 血管, 壊死などの他の組織領域を別クラスとして分類し, 分類する, 病理組織全スライドのための新しい畳み込みニューラルネットワーク (CNN) を用いたマルチクラス組織分割モデルを提案する。
空間分解能にまたがる特異な画素アライメント非線形マージは、局所的および大域的視野を持つモデルに様々なクラスを正確に検出する権限を与える。
提案モデルは,WSIの異なる解像度から多段階のコンテキストを用いて,折り畳み,アーティファクト,ぼやけた領域,バブルなどの悪い領域を組織領域から分離することができる。
513個のスライドから部分的および雑音的なアノテーションを付加した多段階汎用モデルを効率よく訓練するために,文脈認識の強化と雑音増大を伴う多段階反復訓練を用いた。
トレーニングパイプラインでは、コンテキスト認識の強化を使用して生成された1200万のパッチを使用して、モデルステンドとスキャナをデータソース間で不変にしました。
染色およびスキャナの非分散を解析するために,異なる研究室の全く新しいスキャナー(Motic)から完全に新しい染色(ヘマトキシリンとエオシン)を23,000パッチで評価した。
IOUの平均値は0.72で、他のデータソースやスキャナーのモデルの性能と同等である。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Omni-Seg: A Single Dynamic Network for Multi-label Renal Pathology Image
Segmentation using Partially Labeled Data [6.528287373027917]
非癌病理学では、学習アルゴリズムにより、より包括的な組織型を同時に調べることができる。
それまでは、ドメイン固有の知識に合わせて複数のセグメンテーションネットワークをトレーニングする必要があった。
パッチワイドの病理画像15万点から学習することにより,提案したOmni-Segネットワークはセグメンテーション精度が向上し,資源消費量も低減した。
論文 参考訳(メタデータ) (2021-12-23T16:02:03Z) - Automatic Semantic Segmentation of the Lumbar Spine. Clinical
Applicability in a Multi-parametric and Multi-centre MRI study [0.0]
この文書は、最も正確なセグメンテーションを得たニューラルネットワークの設計結果について記述し、分析する。
提案するいくつかの設計は、ベースラインとして使用される標準のU-Netよりも優れており、特に複数のニューラルネットワークの出力が異なる戦略に従って結合されるアンサンブルで使用される場合である。
論文 参考訳(メタデータ) (2021-11-16T17:33:05Z) - Assessing domain adaptation techniques for mitosis detection in
multi-scanner breast cancer histopathology images [0.6999740786886536]
2つのミトーシス検出モデルと2つのスタイル転送法を訓練し、ミトーシス検出性能を向上させるために後者の有用性を評価する。
これらの最も優れたU-Netは、MIDOG 2021の予備テストセットでF1スコア0.693を達成した。
論文 参考訳(メタデータ) (2021-09-01T16:27:46Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - An End-to-End Breast Tumour Classification Model Using Context-Based
Patch Modelling- A BiLSTM Approach for Image Classification [19.594639581421422]
我々は, この関係を, 特定の腫瘍領域から抽出したパッチ間の特徴に基づく相関関係と統合しようと試みている。
我々は、顕微鏡画像とWSI腫瘍領域の2つのデータセットでモデルをトレーニングし、テストした。
CNN機能付きBiLSTMは、パッチをエンドツーエンドの画像分類ネットワークにモデル化する上で、はるかに優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-05T10:43:58Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Multi-scale Domain-adversarial Multiple-instance CNN for Cancer Subtype
Classification with Unannotated Histopathological Images [16.02231907106384]
我々は,マルチインスタンス,ドメイン逆数,マルチスケール学習フレームワークを効果的に組み合わせ,CNNに基づく癌サブタイプ分類法を開発した。
分類性能は標準のCNNや他の従来の方法よりも有意に優れており, 精度は標準の病理医と比較して良好であった。
論文 参考訳(メタデータ) (2020-01-06T14:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。