論文の概要: Classification of Gleason Grading in Prostate Cancer Histopathology Images Using Deep Learning Techniques: YOLO, Vision Transformers, and Vision Mamba
- arxiv url: http://arxiv.org/abs/2409.17122v1
- Date: Wed, 25 Sep 2024 17:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 02:33:29.680095
- Title: Classification of Gleason Grading in Prostate Cancer Histopathology Images Using Deep Learning Techniques: YOLO, Vision Transformers, and Vision Mamba
- Title(参考訳): 深層学習法による前立腺癌組織像のグリーソングレーディングの分類 : YOLO, Vision Transformers, Vision Mamba
- Authors: Amin Malekmohammadi, Ali Badiezadeh, Seyed Mostafa Mirhassani, Parisa Gifani, Majid Vafaeezadeh,
- Abstract要約: 本研究は,3つの深層学習手法であるYOLO,Vision Transformers,Vision Mambaの有効性を,病理組織像からグリーソングレードを正確に分類し,比較した。
ビジョン・マンバ(Vision Mamba)は、病理画像におけるグリーソン分類の最も効果的なモデルとして登場し、精度と計算効率のバランスを提供する。
- 参考スコア(独自算出の注目度): 0.6116681488656472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prostate cancer ranks among the leading health issues impacting men, with the Gleason scoring system serving as the primary method for diagnosis and prognosis. This system relies on expert pathologists to evaluate samples of prostate tissue and assign a Gleason grade, a task that requires significant time and manual effort. To address this challenge, artificial intelligence (AI) solutions have been explored to automate the grading process. In light of these challenges, this study evaluates and compares the effectiveness of three deep learning methodologies, YOLO, Vision Transformers, and Vision Mamba, in accurately classifying Gleason grades from histopathology images. The goal is to enhance diagnostic precision and efficiency in prostate cancer management. This study utilized two publicly available datasets, Gleason2019 and SICAPv2, to train and test the performance of YOLO, Vision Transformers, and Vision Mamba models. Each model was assessed based on its ability to classify Gleason grades accurately, considering metrics such as false positive rate, false negative rate, precision, and recall. The study also examined the computational efficiency and applicability of each method in a clinical setting. Vision Mamba demonstrated superior performance across all metrics, achieving high precision and recall rates while minimizing false positives and negatives. YOLO showed promise in terms of speed and efficiency, particularly beneficial for real-time analysis. Vision Transformers excelled in capturing long-range dependencies within images, although they presented higher computational complexity compared to the other models. Vision Mamba emerges as the most effective model for Gleason grade classification in histopathology images, offering a balance between accuracy and computational efficiency.
- Abstract(参考訳): 前立腺がんは男性に影響を及ぼす主要な健康問題の一つであり、グリーソンスコアシステムは診断と予後の主要な方法である。
このシステムは、専門家の病理学者に頼って前立腺組織のサンプルを評価し、グリーソングレードを割り当てる。
この課題に対処するため、人工知能(AI)ソリューションは、グレーティングプロセスを自動化するために研究されている。
本研究は,これらの課題を考慮した3つの深層学習手法(YOLO,Vision Transformers,Vision Mamba)の有効性を,病理組織像からグリーソングレードを正確に分類し,比較した。
目的は前立腺癌管理における診断精度と効率を高めることである。
この研究では、2つの公開データセットであるGleason2019とSICAPv2を使用して、YOLO、Vision Transformers、Vision Mambaモデルのパフォーマンスをトレーニングし、テストした。
各モデルは、偽陽性率、偽陰性率、精度、リコールなどの指標を考慮して、グリーソンの成績を正確に分類する能力に基づいて評価された。
また,臨床環境における各手法の計算効率と適用性についても検討した。
Vision Mamba氏はすべての指標で優れたパフォーマンスを示し、偽陽性と負の最小化をしながら高い精度とリコール率を達成した。
YOLOは、特にリアルタイム分析において、スピードと効率の面で有望であった。
視覚変換器は画像内の長距離依存を捉えるのに優れていたが、他のモデルに比べて計算の複雑さが高かった。
ビジョン・マンバ(Vision Mamba)は、病理画像におけるグリーソン分類の最も効果的なモデルとして登場し、精度と計算効率のバランスを提供する。
関連論文リスト
- SemiHVision: Enhancing Medical Multimodal Models with a Semi-Human Annotated Dataset and Fine-Tuned Instruction Generation [13.672776832197918]
MLLM(Multimodal large language model)は大きな進歩を遂げているが、専門知識が限られているため、医療分野の課題に直面している。
データ収集やモデル微調整,評価など,エンドツーエンドの学習パイプラインのさまざまな段階において,このギャップに対処することを目指している。
論文 参考訳(メタデータ) (2024-10-19T02:35:35Z) - Segmentation Strategies in Deep Learning for Prostate Cancer Diagnosis: A Comparative Study of Mamba, SAM, and YOLO [0.6116681488656472]
本研究は,前立腺癌組織像の分画のための深層学習法であるMamba,SAM,YOLOの比較分析を行った。
Gleason 2019 と SICAPv2 という2つの総合データセット上で,Dice スコア,精度,リコール指標を用いてこれらのモデルの性能を評価した。
H-Vmunetモデルの高度なアーキテクチャは、高階の視覚状態空間と2D選択的スキャン操作を統合することで、効率的かつセンシティブな病変検出を可能にする。
論文 参考訳(メタデータ) (2024-09-24T16:04:29Z) - Automated Detection of Myopic Maculopathy in MMAC 2023: Achievements in
Classification, Segmentation, and Spherical Equivalent Prediction [6.993091116816899]
筋萎縮性黄斑変性は、病理性近視症患者の視力喪失の主要な原因である。
早期発見と即時治療は、筋萎縮性黄斑症による視力障害の予防に不可欠である。
これがMMAC(Myopic Maculopathy Analysis Challenge)の焦点であった。
論文 参考訳(メタデータ) (2024-01-08T00:26:21Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - OncoPetNet: A Deep Learning based AI system for mitotic figure counting
on H&E stained whole slide digital images in a large veterinary diagnostic
lab setting [47.38796928990688]
OncoPetNetの開発において,複数の最先端ディープラーニング技術を用いて病理組織像分類と有糸体像検出を行った。
提案システムは,14種類の癌に対して,ヒトのエキスパートベースラインと比較して,41例の有糸分裂計数性能を有意に向上させた。
デプロイでは、2つのセンターで1日3,323枚のデジタル全スライド画像を処理する高スループット獣医診断サービスにおいて、効果的な0.27分/スライダー推論が達成された。
論文 参考訳(メタデータ) (2021-08-17T20:01:33Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Self-learning for weakly supervised Gleason grading of local patterns [6.97280833203187]
本稿では,自己学習CNNに基づく弱教師付きディープラーニングモデルを提案し,パッチレベルのパターンと生検レベルのスコアリングの両方を正確に行う。
提案手法はパッチレベルのGleasonグレーディングにおいて,大きなマージン差で教師付き手法よりも優れていることを実証的に実証した。
論文 参考訳(メタデータ) (2021-05-21T15:39:50Z) - Automated Prostate Cancer Diagnosis Based on Gleason Grading Using
Convolutional Neural Network [12.161266795282915]
そこで本研究では,前立腺癌(PCa)の完全分類のための畳み込みニューラルネットワーク(CNN)を用いた自動分類法を提案する。
Patch-Based Image Reconstruction (PBIR) と呼ばれるデータ拡張手法が提案され,WSIの高分解能化と多様性の向上が図られた。
対象データセットへの事前学習モデルの適応性を高めるために,分布補正モジュールを開発した。
論文 参考訳(メタデータ) (2020-11-29T06:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。