論文の概要: An ensemble deep learning approach to detect tumors on Mohs micrographic surgery slides
- arxiv url: http://arxiv.org/abs/2504.05219v1
- Date: Mon, 07 Apr 2025 16:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 15:20:17.304988
- Title: An ensemble deep learning approach to detect tumors on Mohs micrographic surgery slides
- Title(参考訳): Mohsマイクログラフィック手術スライドにおける腫瘍検出のためのアンサンブル深層学習手法
- Authors: Abdurrahim Yilmaz, Serra Atilla Aydin, Deniz Temur, Furkan Yuceyalcin, Berkin Deniz Kahya, Rahmetullah Varol, Ozay Gokoz, Gulsum Gencoglan, Huseyin Uvet, Gonca Elcin,
- Abstract要約: 本研究の目的は,Mohsスライド上で基底細胞癌(BCC)とアーティファクトを検出する深層学習モデルを開発することである。
そこで我々は,Mohsスライドの腫瘍や非腫瘍を検出するAIシステムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mohs micrographic surgery (MMS) is the gold standard technique for removing high risk nonmelanoma skin cancer however, intraoperative histopathological examination demands significant time, effort, and professionality. The objective of this study is to develop a deep learning model to detect basal cell carcinoma (BCC) and artifacts on Mohs slides. A total of 731 Mohs slides from 51 patients with BCCs were used in this study, with 91 containing tumor and 640 without tumor which was defined as non-tumor. The dataset was employed to train U-Net based models that segment tumor and non-tumor regions on the slides. The segmented patches were classified as tumor, or non-tumor to produce predictions for whole slide images (WSIs). For the segmentation phase, the deep learning model success was measured using a Dice score with 0.70 and 0.67 value, area under the curve (AUC) score with 0.98 and 0.96 for tumor and non-tumor, respectively. For the tumor classification, an AUC of 0.98 for patch-based detection, and AUC of 0.91 for slide-based detection was obtained on the test dataset. We present an AI system that can detect tumors and non-tumors in Mohs slides with high success. Deep learning can aid Mohs surgeons and dermatopathologists in making more accurate decisions.
- Abstract(参考訳): Mohs micrographic surgery (MMS) は、高リスク非メラノーマ皮膚癌を除去するための金の標準技術であるが、術中病理組織検査には、かなりの時間、努力、専門性が必要である。
本研究の目的は,Mohsスライド上で基底細胞癌(BCC)とアーティファクトを検出する深層学習モデルを開発することである。
本研究ではBCC51例のMohsスライドを91例,非腫瘍と定義された640例の計731例を用いて検討した。
データセットは、スライド上の腫瘍と非腫瘍領域をセグメントするU-Netベースのモデルをトレーニングするために使用される。
部分的パッチは腫瘍または非腫瘍と分類され,全スライド画像(WSI)の予測が得られた。
セグメンテーションフェーズでは,Diceスコア0.70,0.67,曲線(AUC)スコア0.98,非腫瘍0.96を用いて深層学習モデルの有効性を測定した。
腫瘍分類では, パッチベース検出用AUCが0.98, スライドベース検出用AUCが0.91であった。
そこで我々は,Mohsスライドの腫瘍や非腫瘍を検出するAIシステムを提案する。
深層学習は、Mohsの外科医や皮膚病理学者がより正確な決定を下すのに役立つ。
関連論文リスト
- Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - CancerUniT: Towards a Single Unified Model for Effective Detection,
Segmentation, and Diagnosis of Eight Major Cancers Using a Large Collection
of CT Scans [45.83431075462771]
ヒトの読者や放射線医は、臨床実践において、全身多臓器多臓器の検出と診断を日常的に行う。
ほとんどの医療用AIシステムは、いくつかの疾患のリストの狭い単一の臓器に焦点を当てて構築されている。
CancerUniT は、マルチ腫瘍予測の出力を持つクエリベースの Mask Transformer モデルである。
論文 参考訳(メタデータ) (2023-01-28T20:09:34Z) - Improving Deep Learning Models for Pediatric Low-Grade Glioma Tumors
Molecular Subtype Identification Using 3D Probability Distributions of Tumor
Location [0.0]
pLGGサブタイプ同定のためのCNNモデルは腫瘍セグメンテーションに依存している。
我々はMRIデータにおける腫瘍位置確率を用いてCNNモデルを拡張することを提案する。
腫瘍位置をCNNモデルに組み込むことにより,統計的に有意な改善が得られた。
論文 参考訳(メタデータ) (2022-10-13T18:30:11Z) - Deep learning-based approach to reveal tumor mutational burden status
from whole slide images across multiple cancer types [41.61294299606317]
腫瘍突然変異負担(TMB)は、免疫療法の潜在的なゲノムバイオマーカーである。
ゲノムシークエンシングによって検出されたTMBは、低リソース環境での臨床透過性を欠いている。
本研究では,日常的に使用されているスライド画像からTMB状態を検出するための大規模ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T07:02:32Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Deep Convolutional Neural Networks Model-based Brain Tumor Detection in
Brain MRI Images [0.0]
我々の研究は、MR画像から脳腫瘍を診断するためのディープ畳み込みニューラルネットワーク(DCNN)を実装することである。
本モデルでは, 腫瘍でMR像を抽出し, 全体的な精度は96%であった。
論文 参考訳(メタデータ) (2020-10-03T07:42:17Z) - CorrSigNet: Learning CORRelated Prostate Cancer SIGnatures from
Radiology and Pathology Images for Improved Computer Aided Diagnosis [1.63324350193061]
我々はMRIで前立腺癌を局所化する2段階自動モデルであるCorrSigNetを提案する。
まず,病理組織学的特徴と相関するがんのMRI所見を学習する。
第二に、このモデルは、学習した相関MRI機能を使用して、前立腺がんの局所化のために畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-07-31T23:44:25Z) - Segmentation for Classification of Screening Pancreatic Neuroendocrine
Tumors [72.65802386845002]
本研究は,腹部CTで膵神経内分泌腫瘍(PNET)を早期に検出するための包括的結果を提示する。
我々の知る限りでは、このタスクは以前まで計算タスクとして研究されていなかった。
我々の手法は最先端のセグメンテーションネットワークより優れ、感度は89.47%、特異性は81.08%である。
論文 参考訳(メタデータ) (2020-04-04T21:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。