論文の概要: A Dilated Residual Hierarchically Fashioned Segmentation Framework for
Extracting Gleason Tissues and Grading Prostate Cancer from Whole Slide
Images
- arxiv url: http://arxiv.org/abs/2011.00527v5
- Date: Sun, 25 Jul 2021 14:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:47:05.858963
- Title: A Dilated Residual Hierarchically Fashioned Segmentation Framework for
Extracting Gleason Tissues and Grading Prostate Cancer from Whole Slide
Images
- Title(参考訳): 全スライス画像から喉頭組織と前立腺癌を抽出するための拡張的階層的階層分割フレームワーク
- Authors: Taimur Hassan and Bilal Hassan and Ayman El-Baz and Naoufel Werghi
- Abstract要約: 提案フレームワークは10,516個のスライススキャンを含む大規模PCaデータセット上で広範囲に評価されている。
グリーソン組織抽出の3.22%、PCaの進歩の6.91%では最先端のスキームを上回っている。
- 参考スコア(独自算出の注目度): 10.045812524426271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prostate cancer (PCa) is the second deadliest form of cancer in males, and it
can be clinically graded by examining the structural representations of Gleason
tissues. This paper proposes \RV{a new method} for segmenting the Gleason
tissues \RV{(patch-wise) in order to grade PCa from the whole slide images
(WSI).} Also, the proposed approach encompasses two main contributions: 1) A
synergy of hybrid dilation factors and hierarchical decomposition of latent
space representation for effective Gleason tissues extraction, and 2) A
three-tiered loss function which can penalize different semantic segmentation
models for accurately extracting the highly correlated patterns. In addition to
this, the proposed framework has been extensively evaluated on a large-scale
PCa dataset containing 10,516 whole slide scans (with around 71.7M patches),
where it outperforms state-of-the-art schemes by 3.22% (in terms of mean
intersection-over-union) for extracting the Gleason tissues and 6.91% (in terms
of F1 score) for grading the progression of PCa.
- Abstract(参考訳): 前立腺癌(PCa)は、男性で2番目に致命的ながんであり、グリーソン組織の構造的表現を調べることで臨床的に評価できる。
本稿では、スライド画像全体(WSI)からPCaをグレードするために、Gleason の組織を RV{(patch-wise) に分割する新しい方法を提案する。
また、提案されたアプローチには2つの大きな貢献がある。
1) グリソン組織抽出のためのハイブリッド拡張因子の相乗効果と潜在空間表現の階層的分解
2)異なる意味セグメンテーションモデルをペナライズして高い相関パターンを正確に抽出できる3層損失関数。
さらに,10,516個のスライドスキャン(約71.7Mパッチ)を含む大規模PCaデータセットを用いて,Gleason組織抽出のための最先端スキームを3.22%(平均交叉結合),PCaの進行度を6.91%(F1スコア)で上回った。
関連論文リスト
- It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - A Pathologist-Informed Workflow for Classification of Prostate Glands in
Histopathology [62.997667081978825]
病理学者は、ガラススライド上の針生検の組織を調べて前立腺がんを診断し、診断する。
がんの重症度と転移リスクは、前立腺の組織と形態に基づくスコアであるGleason gradeによって決定される。
本稿では,病理学者のtextitmodus operandi に従って,個々の腺のマルチスケールパッチを分離・分類する自動ワークフローを提案する。
論文 参考訳(メタデータ) (2022-09-27T14:08:19Z) - Slice-by-slice deep learning aided oropharyngeal cancer segmentation
with adaptive thresholding for spatial uncertainty on FDG PET and CT images [0.0]
腫瘍セグメンテーションは放射線治療計画の基本的なステップである。
本研究は,GTVpスライス・バイ・スライス・スライス・スライス・セグメンテーションにおける放射線医学者を支援するための新しい自動深層学習(DL)モデルを提案する。
論文 参考訳(メタデータ) (2022-07-04T15:17:44Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - Going Deeper through the Gleason Scoring Scale: An Automatic end-to-end
System for Histology Prostate Grading and Cribriform Pattern Detection [7.929433631399375]
本研究の目的は,前立腺生検の日常的分析において病理医を支援できるディープラーニングベースのシステムを開発することである。
この研究の方法論的コアは、がんパターンの存在を決定できる畳み込みニューラルネットワークに基づくパッチワイズ予測モデルである。
論文 参考訳(メタデータ) (2021-05-21T17:51:53Z) - WeGleNet: A Weakly-Supervised Convolutional Neural Network for the
Semantic Segmentation of Gleason Grades in Prostate Histology Images [1.52819437883813]
本研究では,前立腺組織における局所的ながんパターンを,訓練中のグローバルレベルGleasonスコアのみを用いて検出する深層学習システムを提案する。
検証コホートにおける癌パターンの画素レベルの予測のために,コーエンの2次カッパ(k)を0.67で取得した。
我々は、Gleasonグレードのセマンティックセグメンテーションのためのモデル性能を、テストコホートにおける教師付き最先端アーキテクチャと比較した。
論文 参考訳(メタデータ) (2021-05-21T16:27:16Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z) - Gleason Score Prediction using Deep Learning in Tissue Microarray Image [15.959329921417618]
我々はGleason 2019 Challengeデータセットを使用して、組織マイクロアレイ(TMA)画像を分割する畳み込みニューラルネットワーク(CNN)モデルを構築しました。
プレトレーニングした前立腺セグメンテーションモデルを用いて,Gleasonグレードセグメンテーションの精度を向上した。
このモデルはテストコホートで平均75.6%のDiceを達成し、Gleason 2019 Challengeで4位となり、コーエンのカッパとf1スコアを組み合わせたスコアは0.778となった。
論文 参考訳(メタデータ) (2020-05-11T07:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。