論文の概要: Pointwise visual field estimation from optical coherence tomography in
glaucoma: a structure-function analysis using deep learning
- arxiv url: http://arxiv.org/abs/2106.03793v1
- Date: Mon, 7 Jun 2021 16:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:41:28.961297
- Title: Pointwise visual field estimation from optical coherence tomography in
glaucoma: a structure-function analysis using deep learning
- Title(参考訳): 緑内障における光コヒーレンストモグラフィーによる視点的視野推定 : 深層学習を用いた構造機能解析
- Authors: Ruben Hemelings, Bart Elen, Jo\~ao Barbosa Breda, Erwin Bellon,
Matthew B Blaschko, Patrick De Boever, Ingeborg Stalmans
- Abstract要約: SAP(Standard Automated Perimetry)は、緑内障治療における視野(VF)の喪失を監視するための金の標準である。
我々は,光学コヒーレンス・トモグラフィー(OCT)スキャンによる点方向および全体的VF損失を推定する深層学習(DL)回帰モデルを開発し,検証した。
- 参考スコア(独自算出の注目度): 12.70143462176992
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background/Aims: Standard Automated Perimetry (SAP) is the gold standard to
monitor visual field (VF) loss in glaucoma management, but is prone to
intra-subject variability. We developed and validated a deep learning (DL)
regression model that estimates pointwise and overall VF loss from unsegmented
optical coherence tomography (OCT) scans. Methods: Eight DL regression models
were trained with various retinal imaging modalities: circumpapillary OCT at
3.5mm, 4.1mm, 4.7mm diameter, and scanning laser ophthalmoscopy (SLO) en face
images to estimate mean deviation (MD) and 52 threshold values. This
retrospective study used data from patients who underwent a complete glaucoma
examination, including a reliable Humphrey Field Analyzer (HFA) 24-2 SITA
Standard VF exam and a SPECTRALIS OCT scan using the Glaucoma Module Premium
Edition. Results: A total of 1378 matched OCT-VF pairs of 496 patients (863
eyes) were included for training and evaluation of the DL models. Average
sample MD was -7.53dB (from -33.8dB to +2.0dB). For 52 VF threshold values
estimation, the circumpapillary OCT scan with the largest radius (4.7mm)
achieved the best performance among all individual models (Pearson r=0.77, 95%
CI=[0.72-0.82]). For MD, prediction averaging of OCT-trained models (3.5mm,
4.1mm, 4.7mm) resulted in a Pearson r of 0.78 [0.73-0.83] on the validation set
and comparable performance on the test set (Pearson r=0.79 [0.75-0.82]).
Conclusion: DL on unsegmented OCT scans accurately predicts pointwise and mean
deviation of 24-2 VF in glaucoma patients. Automated VF from unsegmented OCT
could be a solution for patients unable to produce reliable perimetry results.
- Abstract(参考訳): 背景/背景:SAP(Standard Automated Perimetry)は緑内障治療における視野(VF)の喪失を監視するための金の標準であるが、物体内変動に起因している。
我々は、未分類光コヒーレンストモグラフィー(OCT)スキャンから、ポイントワイドおよび全体的なVF損失を推定する深層学習回帰モデルを開発し、検証した。
方法: 8種類のdl回帰モデルにおいて, 3.5mm, 4.1mm, 4.7mm, 走査型レーザー眼内視鏡 (slo) を用いて, 平均偏差 (md) と52閾値を推定した。
本研究は,HFA (Hunfrey Field Analyzer) 24-2 SITA Standard VF test, SPECTRALIS OCT scan using the Glaucoma Module Premium Editionを含む全緑内障検査を行った患者のデータを用いた。
結果: DLモデルのトレーニングおよび評価には496例(眼863例)のOCT-VF対が1378例含まれていた。
平均サンプルMDは-7.53dB(-33.8dBから+2.0dB)であった。
52VFしきい値の推定では、最大半径(4.7mm)のOCTスキャンが全ての個々のモデルの中で最高の性能を達成した(Pearson r=0.77, 95% CI=[0.72-0.82])。
MDの場合、OCT訓練モデルの予測平均(3.5mm、4.1mm、4.7mm)は検証セットで0.78[0.73-0.83]、テストセットで同等の性能(Pearson r=0.79 [0.75-0.82])となる。
結語: dl on unsegmented oct scansは緑内障患者における24-2vfの点差と平均偏差を正確に予測する。
octからの自動vfは、信頼性のある周縁検査結果が得られない患者にとって解決策になり得る。
関連論文リスト
- Multi-centric AI Model for Unruptured Intracranial Aneurysm Detection and Volumetric Segmentation in 3D TOF-MRI [6.397650339311053]
我々は3DTOF-MRIで未破裂脳動脈瘤(UICA)の検出と分節を併用したオープンソースのnnU-NetベースのAIモデルを開発した。
4つの異なるトレーニングデータセットが作成され、nnU-Netフレームワークがモデル開発に使用された。
一次モデルは85%の感度と0.23FP/ケースレートを示し、ADAM-challengeの勝者(61%)と、ADAMデータでトレーニングされたnnU-Net(51%)を感度で上回った。
論文 参考訳(メタデータ) (2024-08-30T08:57:04Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - Multi-institutional Validation of Two-Streamed Deep Learning Method for
Automated Delineation of Esophageal Gross Tumor Volume using planning-CT and
FDG-PETCT [14.312659667401302]
食道悪性腫瘍容積(GTV)コントゥーリングの現況は,高作業コストとユーザ間の変動を手作業で記述することに依存している。
1施設で開発された深層学習(DL)多モード食道GTVコンチューリングモデルの臨床的応用性を検証する。
論文 参考訳(メタデータ) (2021-10-11T13:56:09Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Semi-supervised learning for generalizable intracranial hemorrhage
detection and segmentation [0.0]
本研究は頭蓋内出血の検出・分節化のための半教師付き学習モデルの開発と評価である。
最初の「教師」ディープラーニングモデルは、2010年から2017年にかけて米国のある機関から収集された457ピクセルの頭部CTスキャンに基づいて訓練された。
2つ目の"学生"モデルは、このピクセルラベル付きデータセットと擬似ラベル付きデータセットの組み合わせでトレーニングされた。
論文 参考訳(メタデータ) (2021-05-03T00:14:43Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - Accurate Prostate Cancer Detection and Segmentation on Biparametric MRI
using Non-local Mask R-CNN with Histopathological Ground Truth [0.0]
我々は,bp-MRIにおける前立腺内病変の検出とセグメンテーションを改善するため,ディープラーニングモデルを開発した。
前立腺切除術による脱線をMRIでトレーニングした。
前立腺切除術をベースとした非局所的なMask R-CNNは、微調整と自己訓練により、すべての評価基準を大幅に改善した。
論文 参考訳(メタデータ) (2020-10-28T21:07:09Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。