論文の概要: Vision Transformer-Based Deep Learning for Histologic Classification of Endometrial Cancer
- arxiv url: http://arxiv.org/abs/2312.08479v2
- Date: Wed, 27 Mar 2024 15:38:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 22:23:24.230341
- Title: Vision Transformer-Based Deep Learning for Histologic Classification of Endometrial Cancer
- Title(参考訳): 子宮内膜癌の組織学的分類のためのビジョントランスフォーマーを用いた深層学習
- Authors: Manu Goyal, Laura J. Tafe, James X. Feng, Kristen E. Muller, Liesbeth Hondelink, Jessica L. Bentz, Saeed Hassanpour,
- Abstract要約: 子宮内膜癌(英: Endometrial cancer)は、アメリカ合衆国の女性で4番目に多いがんであり、この疾患を発症するリスクは約2.8%である。
本研究では,畳み込みニューラルネットワークを用いて組織学的特徴を抽出し,その視覚的特徴に基づいてスライドを高次・低次に分類するEndoNetを紹介する。
このモデルは、ダートマス・ヘルスにおける子宮内膜癌に対する929のデジタル化ヘマトキシリンとエオシン染色による全スライディング画像に基づいて訓練された。
- 参考スコア(独自算出の注目度): 0.7228984887091693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Endometrial cancer, the fourth most common cancer in females in the United States, with the lifetime risk for developing this disease is approximately 2.8% in women. Precise histologic evaluation and molecular classification of endometrial cancer is important for effective patient management and determining the best treatment modalities. This study introduces EndoNet, which uses convolutional neural networks for extracting histologic features and a vision transformer for aggregating these features and classifying slides based on their visual characteristics into high- and low- grade. The model was trained on 929 digitized hematoxylin and eosin-stained whole-slide images of endometrial cancer from hysterectomy cases at Dartmouth-Health. It classifies these slides into low-grade (Endometroid Grades 1 and 2) and high-grade (endometroid carcinoma FIGO grade 3, uterine serous carcinoma, carcinosarcoma) categories. EndoNet was evaluated on an internal test set of 110 patients and an external test set of 100 patients from the public TCGA database. The model achieved a weighted average F1-score of 0.91 (95% CI: 0.86-0.95) and an AUC of 0.95 (95% CI: 0.89-0.99) on the internal test, and 0.86 (95% CI: 0.80-0.94) for F1-score and 0.86 (95% CI: 0.75-0.93) for AUC on the external test. Pending further validation, EndoNet has the potential to support pathologists without the need of manual annotations in classifying the grades of gynecologic pathology tumors.
- Abstract(参考訳): 子宮内膜癌(英: Endometrial cancer)は、アメリカ合衆国の女性で4番目に多いがんであり、この疾患を発症するリスクは約2.8%である。
子宮内膜癌の正確な組織学的評価と分子分類は,効果的な患者管理と治療方法の決定に重要である。
本研究では,畳み込みニューラルネットワークを用いて組織学的特徴を抽出するEndoNetと,それらの特徴を集約し,その視覚的特徴からハイグレードとローグレードに分類する視覚変換器を紹介する。
このモデルは、ダートマス・ヘルスにおける子宮内膜癌に対する929のデジタル化ヘマトキシリンとエオシン染色による全スライディング画像に基づいて訓練された。
これらのスライドは,低等級(Endometroid Grades 1, 2),高等級(Endometroid carcinoma FIGO grade 3, 子宮体節癌, 癌肉腫)に分類される。
内耳検査は110例, 内耳検査は100例, 内耳検査は100例, 内耳検査は100例であった。
このモデルは、内部試験で平均F1スコアが0.91(95% CI: 0.86-0.95)、AUCが0.95(95% CI: 0.89-0.99)、F1スコアが0.86(95% CI: 0.80-0.94)、外部試験が0.86(95% CI: 0.75-0.93)であった。
さらなる検証を控えて、EndoNetは、婦人科腫瘍のグレードを分類する手動アノテーションを必要とせずに、病理医を支援する可能性がある。
関連論文リスト
- Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Detection of subclinical atherosclerosis by image-based deep learning on chest x-ray [86.38767955626179]
460胸部X線で冠状動脈カルシウム(CAC)スコアを予測する深層学習アルゴリズムを開発した。
AICACモデルの診断精度は, 曲線下領域(AUC)で評価された。
論文 参考訳(メタデータ) (2024-03-27T16:56:14Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework
for patient-level colorectal cancer molecular subtypes classification from
H\&E stained images [45.32169712547367]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Prediction of Breast Cancer Recurrence Risk Using a Multi-Model Approach
Integrating Whole Slide Imaging and Clinicopathologic Features [0.6679306163028237]
本研究の目的は,スライド画像全体と臨床病理学的データを分析し,関連する乳癌再発リスクを予測するマルチモデルアプローチを開発することである。
提案手法では,特徴抽出に畳み込みニューラルネットワーク,コンテキストアグリゲーションに視覚変換器を用いる。
論文 参考訳(メタデータ) (2024-01-28T23:33:56Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Deep-Learning Tool for Early Identifying Non-Traumatic Intracranial
Hemorrhage Etiology based on CT Scan [40.51754649947294]
深層学習モデルは、2011年1月から2018年4月までに収集された非外傷性ICHを用いた1868個のNCCTスキャンを用いて開発された。
診断成績は臨床医の成績と比較した。
臨床医は, システム拡張による特定の出血エチオロジーの感度, 特異性, 精度を著しく改善した。
論文 参考訳(メタデータ) (2023-02-02T08:45:17Z) - Predicting Axillary Lymph Node Metastasis in Early Breast Cancer Using
Deep Learning on Primary Tumor Biopsy Slides [17.564585510792227]
深達度学習(DL)に基づく原発性腫瘍生検シグネチャを作製し,扁平上皮リンパ節(ALN)の転移を予測した。
2010年5月から2020年8月までに約1,058人のEBC患者がALNと診断された。
論文 参考訳(メタデータ) (2021-12-04T02:23:18Z) - Using deep learning to detect patients at risk for prostate cancer
despite benign biopsies [0.7739635712759623]
良性前立腺生検全スライド画像における形態的パターンを識別するために, 深部畳み込みニューラルネットワークモデルを開発し, 検証した。
提案モデルは, 定期的前立腺生検における偽陰性症例数を減少させる可能性がある。
論文 参考訳(メタデータ) (2021-06-27T15:21:33Z) - Deep Learning for fully automatic detection, segmentation, and Gleason
Grade estimation of prostate cancer in multiparametric Magnetic Resonance
Images [0.731365367571807]
本稿では,PCa-suspect 患者から前立腺 mpMRI を抽出するDeep Learning に基づく完全自動システムを提案する。
PCaの病変を特定し、それらを分類し、最も可能性の高いGleason grade group(GGG)を予測する。
ProstateXトレーニングシステムのコードはhttps://github.com/OscarPellicer/prostate_lesion_detection.comで公開されている。
論文 参考訳(メタデータ) (2021-03-23T16:08:43Z) - Comparisons of Graph Neural Networks on Cancer Classification Leveraging
a Joint of Phenotypic and Genetic Features [7.381190270069632]
各種グラフニューラルネットワーク(GNNs)を癌型分類のための表現型と遺伝的特徴の関節を用いて評価した。
GNN、ChebNet、GraphSAGE、TAGCNは最高のパフォーマンスを示し、GATは最悪のパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-01-14T20:53:49Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。