論文の概要: Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization
- arxiv url: http://arxiv.org/abs/2203.13856v2
- Date: Thu, 4 Apr 2024 00:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 21:01:43.239905
- Title: Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization
- Title(参考訳): 眼底画像のロバスト深層学習--一般化のための実データと合成データをブリッジする
- Authors: Guilherme C. Oliveira, Gustavo H. Rosa, Daniel C. G. Pedronette, João P. Papa, Himeesh Kumar, Leandro A. Passos, Dinesh Kumar,
- Abstract要約: この研究は、合成眼底画像を生成するために10の異なるGANアーキテクチャをAMDなしで比較する。
StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
- 参考スコア(独自算出の注目度): 0.8599177028761124
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning applications for assessing medical images are limited because the datasets are often small and imbalanced. The use of synthetic data has been proposed in the literature, but neither a robust comparison of the different methods nor generalizability has been reported. Our approach integrates a retinal image quality assessment model and StyleGAN2 architecture to enhance Age-related Macular Degeneration (AMD) detection capabilities and improve generalizability. This work compares ten different Generative Adversarial Network (GAN) architectures to generate synthetic eye-fundus images with and without AMD. We combined subsets of three public databases (iChallenge-AMD, ODIR-2019, and RIADD) to form a single training and test set. We employed the STARE dataset for external validation, ensuring a comprehensive assessment of the proposed approach. The results show that StyleGAN2 reached the lowest Frechet Inception Distance (166.17), and clinicians could not accurately differentiate between real and synthetic images. ResNet-18 architecture obtained the best performance with 85% accuracy and outperformed the two human experts (80% and 75%) in detecting AMD fundus images. The accuracy rates were 82.8% for the test set and 81.3% for the STARE dataset, demonstrating the model's generalizability. The proposed methodology for synthetic medical image generation has been validated for robustness and accuracy, with free access to its code for further research and development in this field.
- Abstract(参考訳): 医学画像を評価するためのディープラーニングアプリケーションは、データセットが小さく不均衡であることが多いため、制限されている。
合成データの利用は文献で提案されているが、異なる方法の堅牢な比較や一般化性は報告されていない。
本手法は,網膜画像品質評価モデルとStyleGAN2アーキテクチャを統合し,加齢関連黄斑変性(AMD)の検出能力を向上し,一般化性を向上させる。
この研究は、GAN(Generative Adversarial Network)アーキテクチャを10の異なるアーキテクチャと比較し、AMDなしで合成眼底画像を生成する。
私たちは3つのパブリックデータベース(iChallenge-AMD、ODIR-2019、RIADD)のサブセットを組み合わせて、単一のトレーニングとテストセットを作りました。
我々は、STAREデータセットを外部検証に使用し、提案手法の総合的な評価を確実にした。
その結果、StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
ResNet-18アーキテクチャは85%の精度で最高の性能を獲得し、2人の専門家(80%と75%)がAMDの眼底画像を検出するのに優れていた。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
合成医用画像生成法は, この分野でのさらなる研究・開発のために, そのコードに自由にアクセスできるように, 堅牢性と精度で検証されている。
関連論文リスト
- Comparative Analysis and Ensemble Enhancement of Leading CNN Architectures for Breast Cancer Classification [0.0]
本研究は,病理組織像を用いた乳癌分類への新規かつ正確なアプローチを提案する。
さまざまな画像データセット間で、主要な畳み込みニューラルネットワーク(CNN)モデルを体系的に比較する。
そこで本研究では,スタンドアロンCNNモデルにおいて,例外的分類精度を実現するために必要な設定について検討した。
論文 参考訳(メタデータ) (2024-10-04T11:31:43Z) - Controllable retinal image synthesis using conditional StyleGAN and latent space manipulation for improved diagnosis and grading of diabetic retinopathy [0.0]
本稿では,高忠実かつ多様なDRファウンダス画像を生成するためのフレームワークを提案する。
生成画像内のDR重大度と視覚的特徴を包括的に制御する。
我々は、条件付きで生成したDR画像をグレードで操作し、データセットの多様性をさらに向上する。
論文 参考訳(メタデータ) (2024-09-11T17:08:28Z) - Non-Reference Quality Assessment for Medical Imaging: Application to Synthetic Brain MRIs [0.0]
本研究では,3次元ResNetをトレーニングすることで脳MRI品質を評価するための,ディープラーニングに基づく新しい非参照手法を提案する。
このネットワークは、MRIスキャンでよく見られる6つの異なるアーティファクトで品質を推定するように設計されている。
その結果、歪みを正確に推定し、複数の視点から画質を反映する性能が向上した。
論文 参考訳(メタデータ) (2024-07-20T22:05:30Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - Comparison of retinal regions-of-interest imaged by OCT for the
classification of intermediate AMD [3.0171643773711208]
269名の中間AMD患者と115名の健常者から15744名のBスキャンを行った。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
論文 参考訳(メタデータ) (2023-05-04T13:48:55Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Anonymization of labeled TOF-MRA images for brain vessel segmentation
using generative adversarial networks [0.9854633436173144]
GAN(Generative Adversarial Network)は、予測特性を保持しながら、匿名画像を提供する可能性がある。
画像ラベル生成のための磁気共鳴血管造影 (MRA) パッチを用いて, 飛行時間(TOF)で3GANを訓練した。
各GANから生成された画像ラベルは、セグメント化のためのU-netのトレーニングに使用され、実際のデータでテストされた。
論文 参考訳(メタデータ) (2020-09-09T11:30:58Z) - Improved Techniques for Training Score-Based Generative Models [104.20217659157701]
本研究では,高次元空間におけるスコアモデルからの学習とサンプリングに関する新しい理論的解析を行う。
スコアベースの生成モデルを前例のない解像度で画像に拡張することができる。
我々のスコアベースモデルは、様々な画像データセットで最良クラスGANに匹敵する高忠実度サンプルを生成することができる。
論文 参考訳(メタデータ) (2020-06-16T09:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。