論文の概要: Glaucoma detection beyond the optic disc: The importance of the
peripapillary region using explainable deep learning
- arxiv url: http://arxiv.org/abs/2103.11895v1
- Date: Mon, 22 Mar 2021 14:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:18:01.112403
- Title: Glaucoma detection beyond the optic disc: The importance of the
peripapillary region using explainable deep learning
- Title(参考訳): 視板以外の緑内障検出 : 説明可能な深層学習による乳頭領域の重要性
- Authors: Ruben Hemelings, Bart Elen, Jo\~ao Barbosa Breda, Matthew B. Blaschko,
Patrick De Boever, Ingeborg Stalmans
- Abstract要約: 緑内障検出と垂直カップディスク比(VCDR)の分野における説明可能な深層学習を推し進める手法を提案する。
一定のクロップポリシを経た基礎画像を用いて,合計64のディープラーニングモデルをトレーニングし,評価した。
深達度学習が視神経頭外側の底部画像領域から緑内障を検出できることを示す最初の証拠となる。
- 参考スコア(独自算出の注目度): 13.458641078691432
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Today, a large number of glaucoma cases remain undetected, resulting in
irreversible blindness. In a quest for cost-effective screening, deep
learning-based methods are being evaluated to detect glaucoma from color fundus
images. Although unprecedented sensitivity and specificity values are reported,
recent glaucoma detection deep learning models lack in decision transparency.
Here, we propose a methodology that advances explainable deep learning in the
field of glaucoma detection and vertical cup-disc ratio (VCDR), an important
risk factor. We trained and evaluated a total of 64 deep learning models using
fundus images that undergo a certain cropping policy. We defined the circular
crop radius as a percentage of image size, centered on the optic nerve head
(ONH), with an equidistant spaced range from 10%-60% (ONH crop policy). The
inverse of the cropping mask was also applied to quantify the performance of
models trained on ONH information exclusively (periphery crop policy). The
performance of the models evaluated on original images resulted in an area
under the curve (AUC) of 0.94 [95% CI: 0.92-0.96] for glaucoma detection, and a
coefficient of determination (R^2) equal to 77% [95% CI: 0.77-0.79] for VCDR
estimation. Models that were trained on images with absence of the ONH are
still able to obtain significant performance (0.88 [95% CI: 0.85-0.90] AUC for
glaucoma detection and 37% [95% CI: 0.35-0.40] R^2 score for VCDR estimation in
the most extreme setup of 60% ONH crop). We validated our glaucoma detection
models on a recent public data set (REFUGE) that contains images captured with
a different camera, still achieving an AUC of 0.80 [95% CI: 0.76-0.84] when ONH
crop policy of 60% image size was applied. Our findings provide the first
irrefutable evidence that deep learning can detect glaucoma from fundus image
regions outside the ONH.
- Abstract(参考訳): 現在、多くの緑内障の症例が発見されておらず、不可逆の盲目状態となっている。
コスト効率のよいスクリーニングを追求するために,色眼底画像から緑内障を検出する深層学習法が評価されている。
前例のない感度と特異性値が報告されているが、近年の緑内障検出深層学習モデルは、決定透明性に欠けている。
本稿では,緑内障検出と鉛直カップディスク比(vcdr)の分野における説明可能な深層学習を,重要なリスク因子として発展させる手法を提案する。
我々は,ある収穫政策を行う根底画像を用いて,64種類のディープラーニングモデルを訓練し,評価した。
視神経頭 (onh) を中心として, 輪作半径を画像サイズの割合として定義し, 10%~60% (onhクロップ政策) に等間隔に設定した。
また, 養殖マスクの逆数を用いて, ONH情報のみに基づいて訓練したモデルの性能を定量化した(周辺作物政策)。
原画像で評価したモデルの性能は、緑内障検出のための曲線(AUC)が0.94[95% CI: 0.92-0.96]、VCDR推定のための決定係数(R^2)が77%(95% CI: 0.77-0.79)となった。
ONHを欠いた画像に基づいてトレーニングされたモデルは、グラウコーマ検出のための0.88 [95% CI: 0.85-0.90] AUCとVCDR推定のための37% [95% CI: 0.35-0.40] R^2スコアを60% ONHの最も極端なセットアップで得ることができる。
我々は,最近の公開データセット(REFUGE)に異なるカメラで撮影した画像を含む緑内障検出モデルの有効性を検証し,60%の画像サイズでOnHの収穫方針を適用した場合,AUCが0.80[95% CI: 0.76-0.84]であることを確認した。
深層学習がONH外の眼底画像領域から緑内障を検出できることを示す最初の証拠となる。
関連論文リスト
- An edge detection-based deep learning approach for tear meniscus height measurement [20.311238180811404]
深層学習フレームワークにおけるエッジ検出支援アノテーションに基づく自動TMH計測手法を提案する。
瞳孔領域と裂孔領域のセグメンテーションを改善するために、畳み込みニューラルネットワークInceptionv3が最初に実装された。
このアルゴリズムは、その品質に基づいて画像を自動的にスクリーニングし、瞳孔と涙孔領域を分離し、TMHを自動的に測定する。
論文 参考訳(メタデータ) (2024-03-23T14:16:26Z) - InceptionCaps: A Performant Glaucoma Classification Model for
Data-scarce Environment [0.0]
緑内障は不可逆的な眼疾患で 世界第2位の視覚障害の原因です
本稿では,InceptionV3を畳み込みベースとしたカプセルネットワーク(CapsNet)をベースとした新しいディープラーニングモデルであるInceptionCapsを提案する。
InceptionCapsは0.956、特異性0.96、AUC0.9556を達成し、RIM-ONE v2データセット上での最先端のディープラーニングモデルのパフォーマンスを上回った。
論文 参考訳(メタデータ) (2023-11-24T11:58:11Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - Performance of a deep learning system for detection of referable
diabetic retinopathy in real clinical settings [0.0]
RetCAD v.1.3.1は糖尿病網膜症(DR)を自動的に検出するために開発された。
この人工知能ベースの技術を活用して、リリース可能なワークロードの削減を分析する。
論文 参考訳(メタデータ) (2022-05-11T14:59:10Z) - Medical Application of Geometric Deep Learning for the Diagnosis of
Glaucoma [60.42955087779866]
シンガポール国立眼科における視神経頭部の3DスキャンをSpectralis OCTで477緑内障と2,296名の非緑内障患者に対して行った。
全巻は、ディープラーニングを用いて自動的にセグメンテーションされ、7つの主要な神経組織と結合組織が識別された。
ポイントネットは、3Dポイントクラウドとして表されるONHのみから頑健な緑内障の診断を行うことができた。
論文 参考訳(メタデータ) (2022-04-14T14:55:25Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Cervical Optical Coherence Tomography Image Classification Based on
Contrastive Self-Supervised Texture Learning [2.674926127069043]
本研究の目的は,コンピュータ支援診断(CADx)による頚部CT画像の自己教師付き学習に基づく分類を行うことである。
畳み込みニューラルネットワーク(CNN)によって抽出された高レベルのセマンティックな特徴に加えて、CADxアプローチでは、対照的なテクスチャ学習によって学習された未ラベルの頚部CT画像のテクスチャ特徴を利用する。
論文 参考訳(メタデータ) (2021-08-11T07:52:59Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。