論文の概要: Robust Segmentation of Optic Disc and Cup from Fundus Images Using Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2012.07128v1
- Date: Sun, 13 Dec 2020 19:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 14:48:35.545443
- Title: Robust Segmentation of Optic Disc and Cup from Fundus Images Using Deep
Neural Networks
- Title(参考訳): 深部ニューラルネットワークを用いた基底画像からの光学ディスクとカップのロバストセグメンテーション
- Authors: Aniketh Manjunath, Subramanya Jois, and Chandra Sekhar Seelamantula
- Abstract要約: 本稿では、残差エンコーダデコーダネットワーク(REDNet)に基づく地域畳み込みニューラルネットワーク(RCNN)を用いた、光学ディスク(OD)と光学カップ(OC)の同時分割のための新しいアプローチを提案する。
最新の技術とパフォーマンスの比較と、標準の公開基盤画像データセットの広範な検証は、RED-RCNNがMRCNNと比較して優れたパフォーマンスを持っていることを示しています。
- 参考スコア(独自算出の注目度): 20.518490163045936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optic disc (OD) and optic cup (OC) are regions of prominent clinical interest
in a retinal fundus image. They are the primary indicators of a glaucomatous
condition. With the advent and success of deep learning for healthcare
research, several approaches have been proposed for the segmentation of
important features in retinal fundus images. We propose a novel approach for
the simultaneous segmentation of the OD and OC using a residual encoder-decoder
network (REDNet) based regional convolutional neural network (RCNN). The
RED-RCNN is motivated by the Mask RCNN (MRCNN). Performance comparisons with
the state-of-the-art techniques and extensive validations on standard publicly
available fundus image datasets show that RED-RCNN has superior performance
compared with MRCNN. RED-RCNN results in Sensitivity, Specificity, Accuracy,
Precision, Dice and Jaccard indices of 95.64%, 99.9%, 99.82%, 95.68%, 95.64%,
91.65%, respectively, for OD segmentation, and 91.44%, 99.87%, 99.83%, 85.67%,
87.48%, 78.09%, respectively, for OC segmentation. Further, we perform
two-stage glaucoma severity grading using the cup-to-disc ratio (CDR) computed
based on the obtained OD/OC segmentation. The superior segmentation performance
of RED-RCNN over MRCNN translates to higher accuracy in glaucoma severity
grading.
- Abstract(参考訳): オプティカル・ディスク (OD) とオプティカル・カップ (OC) は網膜基底画像に顕著な臨床的関心を持つ領域である。
それらは、緑内障状態の主要な指標である。
医療研究のための深層学習の出現と成功により、網膜基底画像における重要な特徴の区分化にいくつかのアプローチが提案されている。
本稿では,残差エンコーダデコーダネットワーク(REDNet)を用いた地域畳み込みニューラルネットワーク(RCNN)を用いたODとOCの同時分割手法を提案する。
RED-RCNNはMask RCNN(MRCNN)によってモチベーションを受けている。
最新技術との比較、および標準公開されている fundus イメージデータセットでの広範囲な検証により、red-rcnn は mrcnn よりも優れたパフォーマンスを示している。
RED-RCNN は OC セグメンテーションにおいて 95.64%, 99.9%, 99.82%, 95.68%, 95.64%, 91.65%, 91.44%, 99.87%, 99.83%, 85.67%, 87.48%, 78.09% である。
さらに,得られたod/ocセグメンテーションに基づいて計算したcdrを用いて2段階の緑内障重症度評価を行う。
MRCNNに対するRED-RCNNのセグメンテーション性能は緑内障重症度評価において高い精度に変換される。
関連論文リスト
- Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - GAN-based Super-Resolution and Segmentation of Retinal Layers in Optical
coherence tomography Scans [13.016298207860974]
網膜層のCTスキャンの超高分解能化とセグメンテーションのためのGAN(Generative Adversarial Network)ベースのソリューションを提案する。
GANに基づくセグメンテーションモデルと、人気のあるネットワーク、すなわちU-NetとResNetをGANアーキテクチャに組み込んだ評価を行う。
我々の最良のモデル構成は、Dice係数 0.867 と mIOU 0.765 を実証的に達成した。
論文 参考訳(メタデータ) (2022-06-28T03:53:40Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Medical Application of Geometric Deep Learning for the Diagnosis of
Glaucoma [60.42955087779866]
シンガポール国立眼科における視神経頭部の3DスキャンをSpectralis OCTで477緑内障と2,296名の非緑内障患者に対して行った。
全巻は、ディープラーニングを用いて自動的にセグメンテーションされ、7つの主要な神経組織と結合組織が識別された。
ポイントネットは、3Dポイントクラウドとして表されるONHのみから頑健な緑内障の診断を行うことができた。
論文 参考訳(メタデータ) (2022-04-14T14:55:25Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - COVID-Net CT-2: Enhanced Deep Neural Networks for Detection of COVID-19
from Chest CT Images Through Bigger, More Diverse Learning [70.92379567261304]
胸部CT画像からのCOVID-19検出のための深部ニューラルネットワークであるCOVID-Net CT-2を導入する。
説明力を活用して、COVID-Net CT-2の意思決定行動を調査します。
結果は有望であり、コンピュータ支援型COVID-19アセスメントの有効なツールとして、ディープニューラルネットワークの強い可能性を示唆している。
論文 参考訳(メタデータ) (2021-01-19T03:04:09Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Deep Learning for Reliable Classification of COVID-19, MERS, and SARS
from Chest X-Ray Images [3.1807621587822013]
重症急性呼吸症候群(SARS)と中東呼吸器症候群(MERS)の流行は2002年と2011年に発生し、現在のCOVID-19パンデミックはいずれも同じ種類の新型コロナウイルスである。
本研究の目的は、深層畳み込みニューラルネットワーク(CNN)を用いて、COVID-19、SARS、MERS胸部X線画像(CXR)を分類することである。
論文 参考訳(メタデータ) (2020-05-23T12:22:28Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - A Light CNN for detecting COVID-19 from CT scans of the chest [9.088303226909279]
OVID-19は世界保健機関(WHO)によってパンデミックと宣言された世界規模の病気である。
深層学習は医学画像や畳み込みニューラルネットワーク(CNN)にも広く使われており、CT画像の分類にも使われている。
我々は,SqueezeNetのモデルに基づく軽量CNN設計を提案し,新型コロナウイルスのCT画像の効率的な識別を行う。
論文 参考訳(メタデータ) (2020-04-24T07:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。