論文の概要: Research on Cervical Cancer p16/Ki-67 Immunohistochemical Dual-Staining Image Recognition Algorithm Based on YOLO
- arxiv url: http://arxiv.org/abs/2412.01372v1
- Date: Mon, 02 Dec 2024 10:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:28.220595
- Title: Research on Cervical Cancer p16/Ki-67 Immunohistochemical Dual-Staining Image Recognition Algorithm Based on YOLO
- Title(参考訳): YOLOを用いた頸部癌p16/Ki-67免疫組織化学的デュアル染色画像認識アルゴリズムに関する研究
- Authors: Xiao-Jun Wu, Cai-Jun Zhao, Chun Meng, Hang Wang,
- Abstract要約: 本稿では, YOLOv5に基づく新しい頸部癌二重画像認識(DSIR-YOLO)モデルを提案する。
Swin-Transformerモジュール、GAMアテンション機構、マルチスケール機能融合、EIoUロス関数を融合することにより、検出性能が大幅に向上する。
5倍のクロスバリデーションにおけるYOLOv5sと比較して、改良アルゴリズムの精度、リコール、mAP@0.5、mAP@0.5:0.95はそれぞれ2.3%、4.1%、4.3%、そして8.0%向上する。
- 参考スコア(独自算出の注目度): 18.16296816649346
- License:
- Abstract: The p16/Ki-67 dual staining method is a new approach for cervical cancer screening with high sensitivity and specificity. However, there are issues of mis-detection and inaccurate recognition when the YOLOv5s algorithm is directly applied to dual-stained cell images. This paper Proposes a novel cervical cancer dual-stained image recognition (DSIR-YOLO) model based on an YOLOv5. By fusing the Swin-Transformer module, GAM attention mechanism, multi-scale feature fusion, and EIoU loss function, the detection performance is significantly improved, with mAP@0.5 and mAP@0.5:0.95 reaching 92.6% and 70.5%, respectively. Compared with YOLOv5s in five-fold cross-validation, the accuracy, recall, mAP@0.5, and mAP@0.5:0.95 of the improved algorithm are increased by 2.3%, 4.1%, 4.3%, and 8.0%, respectively, with smaller variances and higher stability. Compared with other detection algorithms, DSIR-YOLO in this paper sacrifices some performance requirements to improve the network recognition effect. In addition, the influence of dataset quality on the detection results is studied. By controlling the sealing property of pixels, scale difference, unlabelled cells, and diagonal annotation, the model detection accuracy, recall, mAP@0.5, and mAP@0.5:0.95 are improved by 13.3%, 15.3%, 18.3%, and 30.5%, respectively.
- Abstract(参考訳): p16/Ki-67二重染色法は、高い感度と特異性を有する頸部がんスクリーニングの新しいアプローチである。
しかし、YOLOv5sアルゴリズムを直接デュアルステンドセル画像に適用する場合、誤検出や不正確な認識が問題となる。
本稿では,新しい頸部癌二重画像認識(DSIR-YOLO)モデルを提案する。
Swin-Transformerモジュール, GAMアテンション機構, マルチスケール機能融合, EIoUロス関数を融合することにより, mAP@0.5とmAP@0.5:0.95がそれぞれ92.6%, 70.5%に達した。
改良アルゴリズムの精度,リコール,mAP@0.5,mAP@0.5:0.95はそれぞれ2.3%,4.1%,4.3%,8.0%と小さく,安定性が向上した。
DSIR-YOLOは,他の検出アルゴリズムと比較して,ネットワーク認識効果を改善するための性能要件を犠牲にしている。
さらに,データセットの品質が検出結果に及ぼす影響について検討した。
画素の封止特性、スケール差、非標識細胞、対角アノテーションを制御することにより、モデル検出精度、リコール、mAP@0.5、mAP@0.5:0.95をそれぞれ13.3%、15.3%、18.3%、30.5%改善する。
関連論文リスト
- SNAT-YOLO: Efficient Cross-Layer Aggregation Network for Edge-Oriented Gangue Detection [1.7948767405202701]
本モデルでは,石炭ガン検出作業において99.10%の精度で検出を行う。
モデルサイズを38%減らし、パラメータ数を41%減らし、計算コストを40%減らし、画像毎の平均検出時間を1ミリ秒減らした。
論文 参考訳(メタデータ) (2025-02-09T18:39:35Z) - Automated Bleeding Detection and Classification in Wireless Capsule Endoscopy with YOLOv8-X [2.6374023322018916]
本稿では,Auto-WCEBleedGen Version V1 Challengeに対するソリューションを提案する。
出血領域の検出と分類のための統一型YOLOv8-Xモデルを開発した。
本手法は,val idationデータセットで平均精度(mAP)を0.5IoUで96.10%,平均精度(mAP)を76.8%とした。
論文 参考訳(メタデータ) (2024-12-21T13:37:11Z) - AXIAL: Attention-based eXplainability for Interpretable Alzheimer's Localized Diagnosis using 2D CNNs on 3D MRI brain scans [43.06293430764841]
本研究では,3次元MRIを用いたアルツハイマー病診断の革新的手法を提案する。
提案手法では,2次元CNNがボリューム表現を抽出できるソフトアテンション機構を採用している。
ボクセルレベルの精度では、どの領域に注意が払われているかを同定し、これらの支配的な脳領域を同定する。
論文 参考訳(メタデータ) (2024-07-02T16:44:00Z) - Mask wearing object detection algorithm based on improved YOLOv5 [6.129833920546161]
本稿では, YOLOv5lに基づくマスク着用顔検出モデルを提案する。
提案手法はマスク着用の検出能力を大幅に向上させる。
論文 参考訳(メタデータ) (2023-10-16T10:06:42Z) - A Lightweight and Accurate Face Detection Algorithm Based on Retinaface [0.5076419064097734]
Retinaface に基づく軽量かつ高精度な顔検出アルゴリズム LAFD (Light and accurate face detection) を提案する。
アルゴリズムのバックボーンネットワークは、畳み込みカーネルのサイズを調整する修正されたMobileNetV3ネットワークである。
入力画像が前処理され、長さが1560px、幅が1200pxとなると、平均精度は86.2%となる。
論文 参考訳(メタデータ) (2023-08-08T15:36:57Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - COVID-19 Detection Using CT Image Based On YOLOv5 Network [31.848436570442704]
Kaggleプラットフォームが提供するデータセットと、モデルとしてYOLOv5を選択します。
本研究は,作業部における客観的検出手法について紹介する。
対物検出は、1段と2段の2つのストリームに分けることができる。
論文 参考訳(メタデータ) (2022-01-24T21:50:58Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - A multicenter study on radiomic features from T$_2$-weighted images of a
customized MR pelvic phantom setting the basis for robust radiomic models in
clinics [47.187609203210705]
骨盤ファントムの2Dおよび3D T$$-weightedイメージを3つのスキャナーで取得した。
放射線学的特徴の再現性と再配置を評価した。
論文 参考訳(メタデータ) (2020-05-14T09:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。