論文の概要: Comparison of different retinal regions-of-interest imaged by OCT for
the classification of intermediate AMD
- arxiv url: http://arxiv.org/abs/2305.02832v1
- Date: Thu, 4 May 2023 13:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:23:02.634493
- Title: Comparison of different retinal regions-of-interest imaged by OCT for
the classification of intermediate AMD
- Title(参考訳): 中間AMD分類のためのOCTによる異なる網膜領域の比較
- Authors: Danilo A. Jesus, Eric F. Thee, Tim Doekemeijer, Daniel Luttikhuizen,
Caroline Klaver, Stefan Klein, Theo van Walsum, Hans Vingerling, Luisa
Sanchez
- Abstract要約: 269名の中間AMD患者と115名の健常者から15744名のBスキャンを行った。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
- 参考スコア(独自算出の注目度): 3.0171643773711208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To study whether it is possible to differentiate intermediate age-related
macular degeneration (AMD) from healthy controls using partial optical
coherence tomography (OCT) data, that is, restricting the input B-scans to
certain pre-defined regions of interest (ROIs). A total of 15744 B-scans from
269 intermediate AMD patients and 115 normal subjects were used in this study
(split on subject level in 80% train, 10% validation and 10% test). From each
OCT B-scan, three ROIs were extracted: retina, complex between retinal pigment
epithelium (RPE) and Bruch membrane (BM), and choroid (CHO). These ROIs were
obtained using two different methods: masking and cropping. In addition to the
six ROIs, the whole OCT B-scan and the binary mask corresponding to the
segmentation of the RPE-BM complex were used. For each subset, a convolutional
neural network (based on VGG16 architecture and pre-trained on ImageNet) was
trained and tested. The performance of the models was evaluated using the area
under the receiver operating characteristic (AUROC), accuracy, sensitivity, and
specificity. All trained models presented an AUROC, accuracy, sensitivity, and
specificity equal to or higher than 0.884, 0.816, 0.685, and 0.644,
respectively. The model trained on the whole OCT B-scan presented the best
performance (AUROC = 0.983, accuracy = 0.927, sensitivity = 0.862, specificity
= 0.913). The models trained on the ROIs obtained with the cropping method led
to significantly higher outcomes than those obtained with masking, with the
exception of the retinal tissue, where no statistically significant difference
was observed between cropping and masking (p = 0.47). This study demonstrated
that while using the complete OCT B-scan provided the highest accuracy in
classifying intermediate AMD, models trained on specific ROIs such as the
RPE-BM complex or the choroid can still achieve high performance.
- Abstract(参考訳): 部分光コヒーレンストモグラフィー(OCT)データ、すなわち入力されたBスキャンを特定の関心領域(ROIs)に制限することにより、中間年齢関連黄斑変性(AMD)と健康的な制御とを区別できるかどうかを検討する。
269名の中間amd患者と115名の健常者から15744名のb-scanを用いた(80%の列車で被験者レベル、10%のバリデーション、10%の試験)。
各OCTBスキャンから網膜,網膜色素上皮(RPE)とBruch膜(BM)の複合体,脈絡膜(CHO)の3つのROIを抽出した。
これらのROIはマスキングと収穫の2つの異なる方法を用いて得られた。
6つのROIに加えて,ORTBスキャン全体とRAP-BM複合体のセグメンテーションに対応する2次マスクが用いられた。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
訓練された全てのモデルは、それぞれ0.884、0.816、0.685、0.644以上の精度、感度、特異性を示した。
OCT Bスキャン全体で訓練されたモデルは最高の性能を示した(AUROC = 0.983, 精度 = 0.927, 感度 = 0.862, 特異性 = 0.913)。
クロッピング法で得られたroisを用いたモデルでは、クロッピングとクロッピングの間に統計的に有意な差がみられなかった網膜組織を除き、マスキングで得られたモデルよりも有意に高い結果が得られた(p = 0.47)。
本研究は, 完全OCT Bスキャンを用いて中間AMDの分類において高い精度が得られたが, RPE-BM複合体やコロイドなどの特定のROIで訓練したモデルでは高い性能が得られることを示した。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Semi-supervised learning for generalizable intracranial hemorrhage
detection and segmentation [0.0]
本研究は頭蓋内出血の検出・分節化のための半教師付き学習モデルの開発と評価である。
最初の「教師」ディープラーニングモデルは、2010年から2017年にかけて米国のある機関から収集された457ピクセルの頭部CTスキャンに基づいて訓練された。
2つ目の"学生"モデルは、このピクセルラベル付きデータセットと擬似ラベル付きデータセットの組み合わせでトレーニングされた。
論文 参考訳(メタデータ) (2021-05-03T00:14:43Z) - Classification of Fracture and Normal Shoulder Bone X-Ray Images Using
Ensemble and Transfer Learning With Deep Learning Models Based on
Convolutional Neural Networks [0.0]
様々な理由で肩骨折が起こり、身体の他の関節よりも広く、より多様な動きの領域が生じる。
画像はX線(X線)、磁気共鳴画像(MRI)、CT(CT)デバイスを介して肩用のデジタルイメージング・通信(DICOM)フォーマットで生成される。
移動学習とアンサンブル学習を用いた畳み込みニューラルネットワーク(CNN)に基づく深層学習モデルを用いて,肩骨X線画像の分類と比較を行った。
論文 参考訳(メタデータ) (2021-01-31T19:20:04Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z) - A Deep Learning-Based Method for Automatic Segmentation of Proximal
Femur from Quantitative Computed Tomography Images [5.731199807877257]
我々は、エンドツーエンドの完全畳み込みニューラルネットワーク(CNN)であるV on-Netに基づく3次元画像分割法を開発した。
提案手法の有効性を評価する実験を行った。
論文 参考訳(メタデータ) (2020-06-09T21:16:47Z) - Machine Learning Automatically Detects COVID-19 using Chest CTs in a
Large Multicenter Cohort [43.99203831722203]
16施設2096例の胸部CT検査を行った。
新型コロナウイルスの分類のためのメートル法に基づくアプローチは、解釈可能な特徴を使用した。
深層学習に基づく分類器は,CT減衰から抽出した3D特徴と空域不透明度の確率分布を区別した。
論文 参考訳(メタデータ) (2020-06-09T00:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。