論文の概要: Poisson Ordinal Network for Gleason Group Estimation Using Bi-Parametric MRI
- arxiv url: http://arxiv.org/abs/2407.05796v1
- Date: Mon, 8 Jul 2024 09:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:10:47.243731
- Title: Poisson Ordinal Network for Gleason Group Estimation Using Bi-Parametric MRI
- Title(参考訳): Bi-Parametric MRIを用いたグリソン群推定のためのPoisson Ordinal Network
- Authors: Yinsong Xu, Yipei Wang, Ziyi Shen, Iani J. M. B. Gayo, Natasha Thorley, Shonit Punwani, Aidong Men, Dean Barratt, Qingchao Chen, Yipeng Hu,
- Abstract要約: グリーソン群は前立腺癌の主要な組織学的分類体系として機能する。
臨床実践では、超音波ガイド下生検で得られた標本に基づいて、病理学者がグリーソン群を決定する。
我々は,MRI画像からGleason群を直接推定し,必要な生検を減らし得る可能性を検討した。
- 参考スコア(独自算出の注目度): 15.754944195515504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Gleason groups serve as the primary histological grading system for prostate cancer, providing crucial insights into the cancer's potential for growth and metastasis. In clinical practice, pathologists determine the Gleason groups based on specimens obtained from ultrasound-guided biopsies. In this study, we investigate the feasibility of directly estimating the Gleason groups from MRI scans to reduce otherwise required biopsies. We identify two characteristics of this task, ordinality and the resulting dependent yet unknown variances between Gleason groups. In addition to the inter- / intra- observer variability in a multi-step Gleason scoring process based on the interpretation of Gleason patterns, our MR-based prediction is also subject to specimen sampling variance and, to a lesser degree, varying MR imaging protocols. To address this challenge, we propose a novel Poisson ordinal network (PON). PONs model the prediction using a Poisson distribution and leverages Poisson encoding and Poisson focal loss to capture a learnable dependency between ordinal classes (here, Gleason groups), rather than relying solely on the numerical ground-truth (e.g. Gleason Groups 1-5 or Gleason Scores 6-10). To improve this modelling efficacy, PONs also employ contrastive learning with a memory bank to regularise intra-class variance, decoupling the memory requirement of contrast learning from the batch size. Experimental results based on the images labelled by saturation biopsies from 265 prior-biopsy-blind patients, across two tasks demonstrate the superiority and effectiveness of our proposed method.
- Abstract(参考訳): グリーソン群は前立腺癌の主要な組織学的グレーディングシステムとして機能し、がんの成長と転移の可能性を重要な知見を提供する。
臨床実践では、超音波ガイド下生検で得られた標本に基づいて、病理学者がグリーソン群を決定する。
本研究では,MRI画像からGleason群を直接推定し,必要な生検を減らす可能性を検討した。
この課題の2つの特徴、順序性および結果として生じるグリーソン群間の依存的かつ未知な分散を同定する。
Gleasonパターンの解釈に基づく多段階のGleasonスコアリングプロセスにおける観測者間変動に加えて、MRに基づく予測はサンプルサンプルのばらつきも考慮し、より少ない程度のMRイメージングプロトコルも検討する。
この課題に対処するために,新しいPoisson Ordinal Network (PON)を提案する。
PONは、ポアソン分布を用いて予測をモデル化し、ポアソンの符号化とポアソンの焦点損失を利用して、数値的な接地ルールのみに依存するのではなく、順序クラス(ここではグリーソン群)間の学習可能な依存関係を捉える(グリーソン群 1-5 またはグリーソンスコア 6-10 )。
このモデリングの有効性を改善するために、PONはコントラスト学習をメモリバンクと併用してクラス内の分散を規則化し、コントラスト学習のメモリ要件をバッチサイズから分離する。
265人の前生検患者から得られた飽和生検画像に基づく実験結果から,提案手法の優位性と有効性を示した。
関連論文リスト
- Pathologist-like explainable AI for interpretable Gleason grading in prostate cancer [3.7226270582597656]
我々は,54人の病理学者からなる国際グループによって注釈された1015個の組織マイクロアレイコア画像の新たなデータセットを紹介した。
これらのアノテーションは、国際ガイドラインに従ってグリーソン格付けを行うための詳細な局所的なパターン記述を提供する。
我々は、病理学者の用語を利用した予測を提供するU-Netアーキテクチャに基づく、本質的に説明可能なAIシステムを開発する。
論文 参考訳(メタデータ) (2024-10-19T06:58:26Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - A Pathologist-Informed Workflow for Classification of Prostate Glands in
Histopathology [62.997667081978825]
病理学者は、ガラススライド上の針生検の組織を調べて前立腺がんを診断し、診断する。
がんの重症度と転移リスクは、前立腺の組織と形態に基づくスコアであるGleason gradeによって決定される。
本稿では,病理学者のtextitmodus operandi に従って,個々の腺のマルチスケールパッチを分離・分類する自動ワークフローを提案する。
論文 参考訳(メタデータ) (2022-09-27T14:08:19Z) - Going Deeper through the Gleason Scoring Scale: An Automatic end-to-end
System for Histology Prostate Grading and Cribriform Pattern Detection [7.929433631399375]
本研究の目的は,前立腺生検の日常的分析において病理医を支援できるディープラーニングベースのシステムを開発することである。
この研究の方法論的コアは、がんパターンの存在を決定できる畳み込みニューラルネットワークに基づくパッチワイズ予測モデルである。
論文 参考訳(メタデータ) (2021-05-21T17:51:53Z) - WeGleNet: A Weakly-Supervised Convolutional Neural Network for the
Semantic Segmentation of Gleason Grades in Prostate Histology Images [1.52819437883813]
本研究では,前立腺組織における局所的ながんパターンを,訓練中のグローバルレベルGleasonスコアのみを用いて検出する深層学習システムを提案する。
検証コホートにおける癌パターンの画素レベルの予測のために,コーエンの2次カッパ(k)を0.67で取得した。
我々は、Gleasonグレードのセマンティックセグメンテーションのためのモデル性能を、テストコホートにおける教師付き最先端アーキテクチャと比較した。
論文 参考訳(メタデータ) (2021-05-21T16:27:16Z) - Self-learning for weakly supervised Gleason grading of local patterns [6.97280833203187]
本稿では,自己学習CNNに基づく弱教師付きディープラーニングモデルを提案し,パッチレベルのパターンと生検レベルのスコアリングの両方を正確に行う。
提案手法はパッチレベルのGleasonグレーディングにおいて,大きなマージン差で教師付き手法よりも優れていることを実証的に実証した。
論文 参考訳(メタデータ) (2021-05-21T15:39:50Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z) - Gleason Score Prediction using Deep Learning in Tissue Microarray Image [15.959329921417618]
我々はGleason 2019 Challengeデータセットを使用して、組織マイクロアレイ(TMA)画像を分割する畳み込みニューラルネットワーク(CNN)モデルを構築しました。
プレトレーニングした前立腺セグメンテーションモデルを用いて,Gleasonグレードセグメンテーションの精度を向上した。
このモデルはテストコホートで平均75.6%のDiceを達成し、Gleason 2019 Challengeで4位となり、コーエンのカッパとf1スコアを組み合わせたスコアは0.778となった。
論文 参考訳(メタデータ) (2020-05-11T07:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。