論文の概要: Robust Segmentation of Optic Disc and Cup from Fundus Images Using Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2012.07128v1
- Date: Sun, 13 Dec 2020 19:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 14:48:35.545443
- Title: Robust Segmentation of Optic Disc and Cup from Fundus Images Using Deep
Neural Networks
- Title(参考訳): 深部ニューラルネットワークを用いた基底画像からの光学ディスクとカップのロバストセグメンテーション
- Authors: Aniketh Manjunath, Subramanya Jois, and Chandra Sekhar Seelamantula
- Abstract要約: 本稿では、残差エンコーダデコーダネットワーク(REDNet)に基づく地域畳み込みニューラルネットワーク(RCNN)を用いた、光学ディスク(OD)と光学カップ(OC)の同時分割のための新しいアプローチを提案する。
最新の技術とパフォーマンスの比較と、標準の公開基盤画像データセットの広範な検証は、RED-RCNNがMRCNNと比較して優れたパフォーマンスを持っていることを示しています。
- 参考スコア(独自算出の注目度): 20.518490163045936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optic disc (OD) and optic cup (OC) are regions of prominent clinical interest
in a retinal fundus image. They are the primary indicators of a glaucomatous
condition. With the advent and success of deep learning for healthcare
research, several approaches have been proposed for the segmentation of
important features in retinal fundus images. We propose a novel approach for
the simultaneous segmentation of the OD and OC using a residual encoder-decoder
network (REDNet) based regional convolutional neural network (RCNN). The
RED-RCNN is motivated by the Mask RCNN (MRCNN). Performance comparisons with
the state-of-the-art techniques and extensive validations on standard publicly
available fundus image datasets show that RED-RCNN has superior performance
compared with MRCNN. RED-RCNN results in Sensitivity, Specificity, Accuracy,
Precision, Dice and Jaccard indices of 95.64%, 99.9%, 99.82%, 95.68%, 95.64%,
91.65%, respectively, for OD segmentation, and 91.44%, 99.87%, 99.83%, 85.67%,
87.48%, 78.09%, respectively, for OC segmentation. Further, we perform
two-stage glaucoma severity grading using the cup-to-disc ratio (CDR) computed
based on the obtained OD/OC segmentation. The superior segmentation performance
of RED-RCNN over MRCNN translates to higher accuracy in glaucoma severity
grading.
- Abstract(参考訳): オプティカル・ディスク (OD) とオプティカル・カップ (OC) は網膜基底画像に顕著な臨床的関心を持つ領域である。
それらは、緑内障状態の主要な指標である。
医療研究のための深層学習の出現と成功により、網膜基底画像における重要な特徴の区分化にいくつかのアプローチが提案されている。
本稿では,残差エンコーダデコーダネットワーク(REDNet)を用いた地域畳み込みニューラルネットワーク(RCNN)を用いたODとOCの同時分割手法を提案する。
RED-RCNNはMask RCNN(MRCNN)によってモチベーションを受けている。
最新技術との比較、および標準公開されている fundus イメージデータセットでの広範囲な検証により、red-rcnn は mrcnn よりも優れたパフォーマンスを示している。
RED-RCNN は OC セグメンテーションにおいて 95.64%, 99.9%, 99.82%, 95.68%, 95.64%, 91.65%, 91.44%, 99.87%, 99.83%, 85.67%, 87.48%, 78.09% である。
さらに,得られたod/ocセグメンテーションに基づいて計算したcdrを用いて2段階の緑内障重症度評価を行う。
MRCNNに対するRED-RCNNのセグメンテーション性能は緑内障重症度評価において高い精度に変換される。
関連論文リスト
- Explainable Convolutional Neural Networks for Retinal Fundus Classification and Cutting-Edge Segmentation Models for Retinal Blood Vessels from Fundus Images [0.0]
眼底画像における網膜血管の検査による早期診断の重要領域に焦点を当てた研究。
基礎画像解析の研究は,8つの事前学習CNNモデルを用いたディープラーニングに基づく分類を進歩させる。
本研究では,Grad-CAM,Grad-CAM++,Score-CAM,Faster Score-CAM,Layer CAMなどの説明可能なAI技術を利用する。
論文 参考訳(メタデータ) (2024-05-12T17:21:57Z) - Comparative Analysis of Deep Convolutional Neural Networks for Detecting Medical Image Deepfakes [0.0]
本稿では,13種類の最新のDeep Convolutional Neural Network(DCNN)モデルについて総合評価を行った。
ResNet50V2は精度と特異性に優れており、DenseNet169はその正確さ、リコール、F1スコアで区別されている。
また,DenseNetモデルとEfficientNetモデルの両方において,検討対象のDCNN間の遅延空間分離性の評価を行った。
論文 参考訳(メタデータ) (2024-01-08T16:37:22Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - $\Upsilon$-Net: A Spatiospectral Network for Retinal OCT Segmentation [45.84236875366677]
OCT画像のセグメンテーション性能を向上させるために、周波数領域の特徴と画像領域を組み合わせたアーキテクチャである$Upsilon$-Netを提案する。
改善率は, 液分画ダイススコアが13%, 平均ダイススコアが1.9%であった。
論文 参考訳(メタデータ) (2022-04-15T18:51:28Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Deep Learning for Reliable Classification of COVID-19, MERS, and SARS
from Chest X-Ray Images [3.1807621587822013]
重症急性呼吸症候群(SARS)と中東呼吸器症候群(MERS)の流行は2002年と2011年に発生し、現在のCOVID-19パンデミックはいずれも同じ種類の新型コロナウイルスである。
本研究の目的は、深層畳み込みニューラルネットワーク(CNN)を用いて、COVID-19、SARS、MERS胸部X線画像(CXR)を分類することである。
論文 参考訳(メタデータ) (2020-05-23T12:22:28Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。