論文の概要: FGR-Net:Interpretable fundus imagegradeability classification based on deepreconstruction learning
- arxiv url: http://arxiv.org/abs/2409.10246v1
- Date: Mon, 16 Sep 2024 12:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 15:30:17.027781
- Title: FGR-Net:Interpretable fundus imagegradeability classification based on deepreconstruction learning
- Title(参考訳): FGR-Net:Deep Reconstruction Learningに基づくインタプリタブル・ファンドス画像グレーダビリティ分類
- Authors: Saif Khalid, Hatem A. Rashwan, Saddam Abdulwahab, Mohamed Abdel-Nasser, Facundo Manuel Quiroga, Domenec Puig,
- Abstract要約: 本稿ではFGR-Netと呼ばれる新しいフレームワークを提案する。
FGR-Netモデルは、可視化による解釈可能な品質評価も提供する。
その結果,FGR-Netの精度は89%,F1スコアは87%であった。
- 参考スコア(独自算出の注目度): 4.377496499420086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of diagnostic Computer-Aided Design (CAD) systems for retinal diseases depends on the quality of the retinal images being screened. Thus, many studies have been developed to evaluate and assess the quality of such retinal images. However, most of them did not investigate the relationship between the accuracy of the developed models and the quality of the visualization of interpretability methods for distinguishing between gradable and non-gradable retinal images. Consequently, this paper presents a novel framework called FGR-Net to automatically assess and interpret underlying fundus image quality by merging an autoencoder network with a classifier network. The FGR-Net model also provides an interpretable quality assessment through visualizations. In particular, FGR-Net uses a deep autoencoder to reconstruct the input image in order to extract the visual characteristics of the input fundus images based on self-supervised learning. The extracted features by the autoencoder are then fed into a deep classifier network to distinguish between gradable and ungradable fundus images. FGR-Net is evaluated with different interpretability methods, which indicates that the autoencoder is a key factor in forcing the classifier to focus on the relevant structures of the fundus images, such as the fovea, optic disk, and prominent blood vessels. Additionally, the interpretability methods can provide visual feedback for ophthalmologists to understand how our model evaluates the quality of fundus images. The experimental results showed the superiority of FGR-Net over the state-of-the-art quality assessment methods, with an accuracy of 89% and an F1-score of 87%.
- Abstract(参考訳): 網膜疾患に対する診断コンピュータ支援設計(CAD)システムの性能は、スクリーニングされる網膜画像の品質に依存する。
このようにして、網膜画像の品質を評価・評価するために多くの研究が進められている。
しかし、そのほとんどは、発達したモデルの精度と、分解性網膜像と非分解性網膜像の区別のための解釈可能性手法の可視化の質との関係を調査しなかった。
そこで本稿では,オートエンコーダネットワークと分類器ネットワークを融合することにより,基礎となる基盤画像の品質を自動評価し,解釈するFGR-Netという新しいフレームワークを提案する。
FGR-Netモデルは、可視化による解釈可能な品質評価も提供する。
特に、FGR-Netは、深層オートエンコーダを用いて入力画像の再構成を行い、自己教師付き学習に基づいて入力基礎画像の視覚的特徴を抽出する。
次に、オートエンコーダによって抽出された特徴をディープ分類器ネットワークに入力し、グラグラブルとアングラブルとを区別する。
FGR-Netは、異なる解釈可能性法を用いて評価され、オートエンコーダは、フォビア、光ディスク、顕著な血管などの基底画像の関連構造に焦点を絞る上で、分類器が重要な要素であることを示している。
さらに,眼科医が眼底画像の質をどう評価するかを理解するために,眼科医に視覚的フィードバックを提供することも可能である。
その結果,FGR-Netの精度は89%,F1スコアは87%であった。
関連論文リスト
- Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - MAF-Net: Multiple attention-guided fusion network for fundus vascular
image segmentation [1.3295074739915493]
網膜基底画像の血管を正確に検出するマルチアテンション誘導核融合ネットワーク(MAF-Net)を提案する。
従来のUNetベースのモデルは、長距離依存を明示的にモデル化するため、部分的な情報を失う可能性がある。
提案手法は,いくつかの最先端手法と比較して良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-05T15:22:20Z) - Flow-based Visual Quality Enhancer for Super-resolution Magnetic
Resonance Spectroscopic Imaging [13.408365072149795]
超高解像度MRSIの視覚的品質を向上させるためのフローベースエンハンサーネットワークを提案する。
我々のエンハンサーネットワークは、追加画像モダリティ(MRI)から解剖情報を取り込み、学習可能なベース分布を使用する。
また,視覚的品質調整や不確実性推定も可能である。
論文 参考訳(メタデータ) (2022-07-20T20:19:44Z) - A novel approach for glaucoma classification by wavelet neural networks
using graph-based, statisitcal features of qualitatively improved images [0.0]
我々は、最適な拡張網膜画像特徴にウェーブレットニューラルネットワーク(WNN)を用いた新しい緑内障分類手法を提案する。
WNN分類器の性能は、様々なデータセットを持つ多層パーセプトロンニューラルネットワークと比較される。
論文 参考訳(メタデータ) (2022-06-24T06:19:30Z) - Machine Learning Method for Functional Assessment of Retinal Models [5.396946042201311]
本稿では,網膜モデルの機能評価(FA)について紹介する。
我々は従来の機械学習分類器に網膜モデルにより生成されたRCC応答を供給したFAのための機械学習手法を提案する。
その結果,データセットの構造の違いは網膜モデルの性能に大きく違いがあることが判明した。
論文 参考訳(メタデータ) (2022-02-05T00:35:38Z) - Generalized Visual Quality Assessment of GAN-Generated Face Images [79.47386781978531]
GAN生成顔画像(GFI)の汎用品質評価に向けた主観的・客観的品質の検討
我々は、利用可能なGANアルゴリズムと見えないGANアルゴリズムの両方から、GFIの正確な品質予測を可能にする品質評価モデルを開発する。
論文 参考訳(メタデータ) (2022-01-28T07:54:49Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。