論文の概要: FundusGAN: A Hierarchical Feature-Aware Generative Framework for High-Fidelity Fundus Image Generation
- arxiv url: http://arxiv.org/abs/2503.17831v1
- Date: Sat, 22 Mar 2025 18:08:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:37:36.171262
- Title: FundusGAN: A Hierarchical Feature-Aware Generative Framework for High-Fidelity Fundus Image Generation
- Title(参考訳): FundusGAN: 高品質な画像生成のための階層的特徴認識生成フレームワーク
- Authors: Qingshan Hou, Meng Wang, Peng Cao, Zou Ke, Xiaoli Liu, Huazhu Fu, Osmar R. Zaiane,
- Abstract要約: FundusGANは、高忠実度ファンドス画像合成用に特別に設計された新しい階層的特徴認識生成フレームワークである。
我々は、FundusGANが複数のメトリクスにわたって最先端のメソッドを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 35.46876389599076
- License:
- Abstract: Recent advancements in ophthalmology foundation models such as RetFound have demonstrated remarkable diagnostic capabilities but require massive datasets for effective pre-training, creating significant barriers for development and deployment. To address this critical challenge, we propose FundusGAN, a novel hierarchical feature-aware generative framework specifically designed for high-fidelity fundus image synthesis. Our approach leverages a Feature Pyramid Network within its encoder to comprehensively extract multi-scale information, capturing both large anatomical structures and subtle pathological features. The framework incorporates a modified StyleGAN-based generator with dilated convolutions and strategic upsampling adjustments to preserve critical retinal structures while enhancing pathological detail representation. Comprehensive evaluations on the DDR, DRIVE, and IDRiD datasets demonstrate that FundusGAN consistently outperforms state-of-the-art methods across multiple metrics (SSIM: 0.8863, FID: 54.2, KID: 0.0436 on DDR). Furthermore, disease classification experiments reveal that augmenting training data with FundusGAN-generated images significantly improves diagnostic accuracy across multiple CNN architectures (up to 6.49\% improvement with ResNet50). These results establish FundusGAN as a valuable foundation model component that effectively addresses data scarcity challenges in ophthalmological AI research, enabling more robust and generalizable diagnostic systems while reducing dependency on large-scale clinical data collection.
- Abstract(参考訳): RetFoundのような眼科基礎モデルの最近の進歩は、目覚ましい診断能力を示しているが、効果的な事前トレーニングのために大量のデータセットを必要としており、開発とデプロイメントに重大な障壁を生み出している。
この重要な課題に対処するため,我々は,高忠実度ファンドス画像合成に特化して設計された新しい階層型特徴認識生成フレームワークであるFundusGANを提案する。
本手法では,エンコーダ内の特徴ピラミッドネットワークを利用して,大規模解剖学的構造と微妙な病理的特徴を網羅的に抽出する。
このフレームワークはStyleGANベースの改良型ジェネレータと拡張された畳み込みと、重要な網膜構造を保存し、病理的な詳細表現を増強する戦略的なアップサンプリング調整を組み込んでいる。
DDR、DRIVE、IDRiDデータセットに関する総合的な評価は、FundusGANが複数のメトリクス(SSIM: 0.8863、FID: 54.2、KID: 0.0436、DDR: 0.0436)にわたる最先端の手法を一貫して上回っていることを示している。
さらに、FundusGAN生成画像によるトレーニングデータの拡大により、複数のCNNアーキテクチャ(ResNet50では最大6.49倍)での診断精度が大幅に向上することが明らかとなった。
これらの結果は、眼科AI研究におけるデータ不足問題に効果的に対処し、大規模臨床データ収集への依存を減らしつつ、より堅牢で一般化可能な診断システムを可能にする貴重な基礎モデルコンポーネントとしてFundusGANを確立している。
関連論文リスト
- A Data-Efficient Pan-Tumor Foundation Model for Oncology CT Interpretation [17.993838581176902]
PASTAは、46の腫瘍学タスクのうち45の最先端のパフォーマンスを達成するパン腫瘍CT基盤モデルである。
PASTA-Genは、ピクセルレベルのアノテート病変とペア構造レポートを備えた3万個のCTスキャンの包括的なデータセットを生成する。
論文 参考訳(メタデータ) (2025-02-10T05:45:03Z) - DGSSA: Domain generalization with structural and stylistic augmentation for retinal vessel segmentation [17.396365010722423]
網膜血管形態は糖尿病、緑内障、高血圧などの疾患の診断に重要である。
従来のセグメンテーション手法は、トレーニングとテストのデータが同様の分布を共有していると仮定する。
本稿では,網膜血管画像分割のための新しいアプローチ DGSSA を提案する。
論文 参考訳(メタデータ) (2025-01-07T01:47:57Z) - GAN-Based Architecture for Low-dose Computed Tomography Imaging Denoising [1.0138723409205497]
GAN(Generative Adversarial Networks)は低線量CT(LDCT)領域における革命的要素として浮上している。
本総説では,GANに基づくLDCT復調技術の急速な進歩を概観する。
論文 参考訳(メタデータ) (2024-11-14T15:26:10Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Histopathology DatasetGAN: Synthesizing Large-Resolution Histopathology
Datasets [0.0]
病理組織学的データセットGAN(HDGAN)は、画像の生成と分割のためのフレームワークであり、大きな解像度の病理組織像によく対応している。
生成したバックボーンの更新,ジェネレータからの遅延特徴の選択的抽出,メモリマップされた配列への切り替えなど,オリジナルのフレームワークからいくつかの適応を行う。
血栓性微小血管症における高分解能タイルデータセット上でHDGANを評価し,高分解能画像アノテーション生成タスクにおいて高い性能を示した。
論文 参考訳(メタデータ) (2022-07-06T14:33:50Z) - MRI to PET Cross-Modality Translation using Globally and Locally Aware GAN (GLA-GAN) for Multi-Modal Diagnosis of Alzheimer's Disease [0.6597195879147557]
現実像を合成できるGAN(Generative Adversarial Network)は、標準的なデータ拡張手法の代替として大きな可能性を秘めている。
本稿では,グローバルな構造的整合性と局所的細部への忠実さを両立させるマルチパスアーキテクチャにより,グローバルかつ局所的に認識された画像間変換GAN(GLA-GAN)を提案する。
論文 参考訳(メタデータ) (2021-08-04T16:38:33Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。