論文の概要: Automated Artifact Detection in Ultra-widefield Fundus Photography of
Patients with Sickle Cell Disease
- arxiv url: http://arxiv.org/abs/2307.05780v1
- Date: Tue, 11 Jul 2023 20:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 15:09:58.504115
- Title: Automated Artifact Detection in Ultra-widefield Fundus Photography of
Patients with Sickle Cell Disease
- Title(参考訳): シックル細胞病患者の超広視野撮影における自動アーティファクト検出
- Authors: Anqi Feng, Dimitri Johnson, Grace R. Reilly, Loka Thangamathesvaran,
Ann Nampomba, Mathias Unberath, Adrienne W. Scott, Craig Jones
- Abstract要約: 本研究の目的は,UWF-FPアーティファクト分類のための自動アルゴリズムを作成することである。
各クラスの精度は83.7%でアイラッシュ・プレゼン、83.7%でローワーアイライド・オブストラクト、98.0%でアッパーアイライド・オブストラクト、77.6%でイメージ・トゥー・ダーク、93.9%でダークアーティファクト、91.8%でイメージ・ノーティファクトであった。
- 参考スコア(独自算出の注目度): 4.4400645551116815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Importance: Ultra-widefield fundus photography (UWF-FP) has shown utility in
sickle cell retinopathy screening; however, image artifact may diminish quality
and gradeability of images. Objective: To create an automated algorithm for
UWF-FP artifact classification. Design: A neural network based automated
artifact detection algorithm was designed to identify commonly encountered
UWF-FP artifacts in a cross section of patient UWF-FP. A pre-trained ResNet-50
neural network was trained on a subset of the images and the classification
accuracy, sensitivity, and specificity were quantified on the hold out test
set. Setting: The study is based on patients from a tertiary care hospital
site. Participants: There were 243 UWF-FP acquired from patients with sickle
cell disease (SCD), and artifact labelling in the following categories was
performed: Eyelash Present, Lower Eyelid Obstructing, Upper Eyelid Obstructing,
Image Too Dark, Dark Artifact, and Image Not Centered. Results: Overall, the
accuracy for each class was Eyelash Present at 83.7%, Lower Eyelid Obstructing
at 83.7%, Upper Eyelid Obstructing at 98.0%, Image Too Dark at 77.6%, Dark
Artifact at 93.9%, and Image Not Centered at 91.8%. Conclusions and Relevance:
This automated algorithm shows promise in identifying common imaging artifacts
on a subset of Optos UWF-FP in SCD patients. Further refinement is ongoing with
the goal of improving efficiency of tele-retinal screening in sickle cell
retinopathy (SCR) by providing a photographer real-time feedback as to the
types of artifacts present, and the need for image re-acquisition. This
algorithm also may have potential future applicability in other retinal
diseases by improving quality and efficiency of image acquisition of UWF-FP.
- Abstract(参考訳): 重要:ultra-widefield fundus photography (uwf-fp)は、シックル細胞網膜症スクリーニングに有用であるが、画像アーティファクトは画像の品質とグレードビリティを低下させる可能性がある。
目的:UWF-FPアーティファクト分類のための自動アルゴリズムを作成する。
設計: ニューラルネットワークに基づく自動アーティファクト検出アルゴリズムは、患者uwf-fpの断面に遭遇する一般的なuwf-fpアーティファクトを識別するために設計された。
プレトレーニングされたresnet-50ニューラルネットワークを画像のサブセットでトレーニングし,ホールドアウトテストセットで分類精度,感度,特異性を定量化した。
設定: この研究は、第三次医療病院の現場の患者に基づいている。
参加者: 病原性細胞疾患(SCD)患者243名からUWF-FPを取得し, アイラッシュ現像, 下部アイライド閉塞, 上アイライド閉塞, イメージトゥーダーク, ダークアーティファクト, 画像非中心のアーティファクトラベリングを行った。
結果: 各分類の精度は, 83.7%, 下部のアイライダーが83.7%, 上部のアイライダーが98.0%, 画像が77.6%, ダークアーティファクト93.9%, 画像が91.8%であった。
結論と関連性: この自動アルゴリズムは、SCD患者のOptos UWF-FPのサブセット上で、一般的な画像アーティファクトを特定することを約束している。
画像再取得の必要性から, 医用写真のリアルタイムフィードバックを提供することにより, 病原細胞網膜症(SCR)における遠隔網膜スクリーニングの効率向上を目標に, さらなる改良が進められている。
このアルゴリズムは、UWF-FPの画像取得の品質と効率を向上させることにより、他の網膜疾患にも将来応用できる可能性がある。
関連論文リスト
- UWF-RI2FA: Generating Multi-frame Ultrawide-field Fluorescein Angiography from Ultrawide-field Retinal Imaging Improves Diabetic Retinopathy Stratification [10.833651195216557]
我々は、生成人工知能(GenAI)を用いた非侵襲的UWF網膜イメージング(UWF-RI)から無色素UWF-FA画像を取得することを目指している。
異なる位相のUWF-FA画像18,321枚を対応するUWF-RI画像に登録し,GAN(Generative Adversarial Network)ベースのトレーニングモデルに入力した。
生成したUWF-FA画像の品質を定量化と人的評価により評価した。
論文 参考訳(メタデータ) (2024-08-20T08:22:29Z) - Explainable Convolutional Neural Networks for Retinal Fundus Classification and Cutting-Edge Segmentation Models for Retinal Blood Vessels from Fundus Images [0.0]
眼底画像における網膜血管の検査による早期診断の重要領域に焦点を当てた研究。
基礎画像解析の研究は,8つの事前学習CNNモデルを用いたディープラーニングに基づく分類を進歩させる。
本研究では,Grad-CAM,Grad-CAM++,Score-CAM,Faster Score-CAM,Layer CAMなどの説明可能なAI技術を利用する。
論文 参考訳(メタデータ) (2024-05-12T17:21:57Z) - UWAFA-GAN: Ultra-Wide-Angle Fluorescein Angiography Transformation via Multi-scale Generation and Registration Enhancement [17.28459176559761]
UWF-FA (UWF fluorescein angiography) は、患者の手や肘に注入して蛍光染料を投与する必要がある。
注射による潜在的な副作用を軽減するため、研究者はクロスモダリティ医療画像生成アルゴリズムの開発を提案した。
本稿では,UWF-SLOからUWF-FAを合成する条件生成対向ネットワーク(UWAFA-GAN)を提案する。
論文 参考訳(メタデータ) (2024-05-01T14:27:43Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Performance of a deep learning system for detection of referable
diabetic retinopathy in real clinical settings [0.0]
RetCAD v.1.3.1は糖尿病網膜症(DR)を自動的に検出するために開発された。
この人工知能ベースの技術を活用して、リリース可能なワークロードの削減を分析する。
論文 参考訳(メタデータ) (2022-05-11T14:59:10Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Cervical Optical Coherence Tomography Image Classification Based on
Contrastive Self-Supervised Texture Learning [2.674926127069043]
本研究の目的は,コンピュータ支援診断(CADx)による頚部CT画像の自己教師付き学習に基づく分類を行うことである。
畳み込みニューラルネットワーク(CNN)によって抽出された高レベルのセマンティックな特徴に加えて、CADxアプローチでは、対照的なテクスチャ学習によって学習された未ラベルの頚部CT画像のテクスチャ特徴を利用する。
論文 参考訳(メタデータ) (2021-08-11T07:52:59Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。