論文の概要: OMG-Net: A Deep Learning Framework Deploying Segment Anything to Detect Pan-Cancer Mitotic Figures from Haematoxylin and Eosin-Stained Slides
- arxiv url: http://arxiv.org/abs/2407.12773v1
- Date: Wed, 17 Jul 2024 17:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 16:06:20.161293
- Title: OMG-Net: A Deep Learning Framework Deploying Segment Anything to Detect Pan-Cancer Mitotic Figures from Haematoxylin and Eosin-Stained Slides
- Title(参考訳): OMG-Net: HaematoxylinとEosin-Stained SlidesからPan-Cancerのミソティックフィギュアを検出するためのSegment Anythingをデプロイするディープラーニングフレームワーク
- Authors: Zhuoyan Shen, Mikael Simard, Douglas Brand, Vanghelita Andrei, Ali Al-Khader, Fatine Oumlil, Katherine Trevers, Thomas Butters, Simon Haefliger, Eleanna Kara, Fernanda Amary, Roberto Tirabosco, Paul Cool, Gary Royle, Maria A. Hawkins, Adrienne M. Flanagan, Charles-Antoine Collins Fekete,
- Abstract要約: 本研究では,デジタル化された全スライド画像(WSI)におけるMFを検出する人工知能(AI)アプローチを提案する。
ここでは、社内の軟部組織腫瘍データセット(STMF)と、IPAC、TUPAC、CCMCT、CMC、MIDOG++の5つのオープンソースの有糸分裂データセットを組み合わせることで、最大の有糸分裂像のパン・カンサデータセットを確立する。
次に、2段階のフレームワーク(Optimized Mitoses Generator Network (OMG-Net))を用いてMFを分類した。
- 参考スコア(独自算出の注目度): 27.84599956781646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mitotic activity is an important feature for grading several cancer types. Counting mitotic figures (MFs) is a time-consuming, laborious task prone to inter-observer variation. Inaccurate recognition of MFs can lead to incorrect grading and hence potential suboptimal treatment. In this study, we propose an artificial intelligence (AI)-aided approach to detect MFs in digitised haematoxylin and eosin-stained whole slide images (WSIs). Advances in this area are hampered by the limited number and types of cancer datasets of MFs. Here we establish the largest pan-cancer dataset of mitotic figures by combining an in-house dataset of soft tissue tumours (STMF) with five open-source mitotic datasets comprising multiple human cancers and canine specimens (ICPR, TUPAC, CCMCT, CMC and MIDOG++). This new dataset identifies 74,620 MFs and 105,538 mitotic-like figures. We then employed a two-stage framework (the Optimised Mitoses Generator Network (OMG-Net) to classify MFs. The framework first deploys the Segment Anything Model (SAM) to automate the contouring of MFs and surrounding objects. An adapted ResNet18 is subsequently trained to classify MFs. OMG-Net reaches an F1-score of 0.84 on pan-cancer MF detection (breast carcinoma, neuroendocrine tumour and melanoma), largely outperforming the previous state-of-the-art MIDOG++ benchmark model on its hold-out testing set (e.g. +16% F1-score on breast cancer detection, p<0.001) thereby providing superior accuracy in detecting MFs on various types of tumours obtained with different scanners.
- Abstract(参考訳): ミトコンドリア活性は、いくつかのがんの分類において重要な特徴である。
MF (counting mitotic figure) は、サーバ間の変動に時間がかかり、手間がかかるタスクである。
MFの不正確な認識は、不正なグレーディングを招き、その結果、潜在的に至適な治療につながる可能性がある。
本研究では,デジタルハエマトキシリンとエオシン含有全スライド画像(WSI)のMFを検出する人工知能(AI)支援手法を提案する。
この領域の進歩は、MFの限られた数のがんデータセットとタイプによって妨げられている。
そこで我々は,複数のヒト癌とイヌの標本(ICPR, TUPAC, CCMCT, CMC, MIDOG++)からなる5つのオープンソースの有糸分裂データセットと, 軟部組織腫瘍の社内データセット(STMF)を組み合わせることで, 有糸分裂像の最大の汎癌データセットを確立する。
この新しいデータセットは、74,620個のMFと105,538個のミトティックな図形を識別する。
次に、MFを分類するために2段階のフレームワーク(Optimized Mitoses Generator Network (OMG-Net))を用いた。
このフレームワークはまずSegment Anything Model(SAM)をデプロイし、MFと周辺オブジェクトのコントゥーリングを自動化する。
ResNet18はその後、MFを分類するために訓練される。
OMG-Netは、膵MF検出(乳がん、神経内分泌腫瘍、メラノーマ)で0.84のF1スコアに達し、従来のMIDOG++ベンチマークモデル(例えば、乳がん検出で+16%のF1スコア、p<0.001)よりも優れており、異なるスキャナーで得られた様々な種類の腫瘍でMFを検出するのに優れた精度を提供する。
関連論文リスト
- Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - A completely annotated whole slide image dataset of canine breast cancer
to aid human breast cancer research [6.960375869417005]
ヒト乳癌の現在のデータセットは、スライド画像全体(WSI)の小さなサブセットに対してのみアノテーションを提供する。
MF に完全付加した CMC の 21 WSI の新たなデータセットを提案する。
我々は機械学習を用いて、未検出のMFを同定した。
論文 参考訳(メタデータ) (2020-08-24T08:06:55Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z) - Deep Feature Fusion for Mitosis Counting [0.0]
有糸分裂細胞数は、乳がんの攻撃性または品位を評価する最も一般的な検査の1つである。
ディープラーニングネットワークは、興味のある領域を自動的にローカライズできる医療アプリケーションに適用されている。
提案手法は,オブジェクト検出のための高速RCNNを利用して,RGB画像特徴を持つUNetによって生成されたセグメンテーション機能を融合させ,MITOS-ATYPIA 2014 mitosis counting Challengeデータセット上で0.508のFスコアを達成する。
論文 参考訳(メタデータ) (2020-02-01T20:20:00Z) - Segmentation of Cellular Patterns in Confocal Images of Melanocytic
Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) [2.0487455621441377]
マルチスケールデコーダネットワーク(MED-Net)は,パターンのクラスに定量的なラベル付けを行う。
メラノサイト病変の117個の反射共焦点顕微鏡(RCM)モザイクの非重畳分割について,本モデルを訓練・試験した。
論文 参考訳(メタデータ) (2020-01-03T22:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。