論文の概要: FundusQ-Net: a Regression Quality Assessment Deep Learning Algorithm for
Fundus Images Quality Grading
- arxiv url: http://arxiv.org/abs/2205.01676v3
- Date: Tue, 6 Jun 2023 19:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 20:32:35.662947
- Title: FundusQ-Net: a Regression Quality Assessment Deep Learning Algorithm for
Fundus Images Quality Grading
- Title(参考訳): fundusq-net: fundus images quality gradingのための回帰品質評価ディープラーニングアルゴリズム
- Authors: Or Abramovich, Hadas Pizem, Jan Van Eijgen, Ilan Oren, Joshua Melamed,
Ingeborg Stalmans, Eytan Z. Blumenthal and Joachim A. Behar
- Abstract要約: 緑内障、糖尿病網膜症、加齢に伴う黄斑変性は、視力障害や視覚障害の主な原因である。
このプロセスの鍵となるステップは、人間のオペレータや機械学習モデルによってこれらが解釈可能であることを確認するために、ベース画像の品質を自動的に見積もることである。
本稿では,この新たな尺度に対して,新たな基礎画像品質尺度とディープラーニング(DL)モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objective: Ophthalmological pathologies such as glaucoma, diabetic
retinopathy and age-related macular degeneration are major causes of blindness
and vision impairment. There is a need for novel decision support tools that
can simplify and speed up the diagnosis of these pathologies. A key step in
this process is to automatically estimate the quality of the fundus images to
make sure these are interpretable by a human operator or a machine learning
model. We present a novel fundus image quality scale and deep learning (DL)
model that can estimate fundus image quality relative to this new scale.
Methods: A total of 1,245 images were graded for quality by two
ophthalmologists within the range 1-10, with a resolution of 0.5. A DL
regression model was trained for fundus image quality assessment. The
architecture used was Inception-V3. The model was developed using a total of
89,947 images from 6 databases, of which 1,245 were labeled by the specialists
and the remaining 88,702 images were used for pre-training and semi-supervised
learning. The final DL model was evaluated on an internal test set (n=209) as
well as an external test set (n=194).
Results: The final DL model, denoted FundusQ-Net, achieved a mean absolute
error of 0.61 (0.54-0.68) on the internal test set. When evaluated as a binary
classification model on the public DRIMDB database as an external test set the
model obtained an accuracy of 99%.
Significance: the proposed algorithm provides a new robust tool for automated
quality grading of fundus images.
- Abstract(参考訳): 目的:緑内障,糖尿病網膜症,加齢黄斑変性などの眼科疾患は盲目や視力障害の主な原因である。
これらの病態の診断を簡素化し、迅速化する新しい意思決定支援ツールが必要である。
このプロセスの鍵となるステップは、基礎画像の品質を自動的に推定し、それが人間のオペレータや機械学習モデルによって解釈可能であることを保証することである。
本稿では,この新たな尺度に対して,新たな基礎画像品質尺度と深層学習(DL)モデルを提案する。
方法】1-10範囲の眼科医2名による1,245枚の画像の画質は0.5。
画像品質評価のためのDL回帰モデルを訓練した。
アーキテクチャはInception-V3である。
このモデルは6つのデータベースから89,947枚の画像を用いて開発され、そのうち1,245枚の画像は専門家によってラベル付けされ、残りの88,702枚の画像は事前学習と半教師付き学習に使用された。
最終dlモデルは内部テストセット(n=209)と外部テストセット(n=194)で評価された。
結果: fundusq-net と名づけられた最終dlモデルは、内部テストセットで 0.61 (0.54-0.68) の平均絶対誤差を達成した。
外部テストセットとして公開DRIMDBデータベース上でバイナリ分類モデルとして評価すると,精度は99%であった。
意義:本アルゴリズムは,基礎画像の自動品質評価のための新しいロバストなツールを提供する。
関連論文リスト
- Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - InceptionCaps: A Performant Glaucoma Classification Model for
Data-scarce Environment [0.0]
緑内障は不可逆的な眼疾患で 世界第2位の視覚障害の原因です
本稿では,InceptionV3を畳み込みベースとしたカプセルネットワーク(CapsNet)をベースとした新しいディープラーニングモデルであるInceptionCapsを提案する。
InceptionCapsは0.956、特異性0.96、AUC0.9556を達成し、RIM-ONE v2データセット上での最先端のディープラーニングモデルのパフォーマンスを上回った。
論文 参考訳(メタデータ) (2023-11-24T11:58:11Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - A ResNet is All You Need? Modeling A Strong Baseline for Detecting
Referable Diabetic Retinopathy in Fundus Images [0.0]
我々は、シンプルな標準のResNet-18アーキテクチャに基づいて、このタスクの強力なベースラインをモデル化する。
我々のモデルは、異なる公開データセットから得られた61007個のテスト画像の組み合わせで、AUC = 0.955を達成した。
論文 参考訳(メタデータ) (2022-10-06T19:40:56Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - 1-D Convlutional Neural Networks for the Analysis of Pupil Size
Variations in Scotopic Conditions [79.71065005161566]
1次元畳み込みニューラルネットワークモデルは、短距離配列の分類のために訓練されている。
モデルは、ホールドアウトテストセット上で、高い平均精度で予測を提供する。
論文 参考訳(メタデータ) (2020-02-06T17:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。