論文の概要: A Generic Fundus Image Enhancement Network Boosted by Frequency
Self-supervised Representation Learning
- arxiv url: http://arxiv.org/abs/2309.00885v1
- Date: Sat, 2 Sep 2023 09:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 00:37:00.425742
- Title: A Generic Fundus Image Enhancement Network Boosted by Frequency
Self-supervised Representation Learning
- Title(参考訳): 周波数自己教師型表現学習によるジェネリックファンドス画像強調ネットワーク
- Authors: Heng Li, Haofeng Liu, Huazhu Fu, Yanwu Xu, Hui Shu, Ke Niu, Yan Hu,
Jiang Liu
- Abstract要約: ファンドス画像強調ネットワーク(GFE-Net)は、監視や余分なデータなしで、未知のファンドス画像を堅牢に補正するために開発された。
GFE-Netは、データ依存、パフォーマンスの向上、デプロイメント効率、スケールの一般化性において、優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 34.47229102825849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fundus photography is prone to suffer from image quality degradation that
impacts clinical examination performed by ophthalmologists or intelligent
systems. Though enhancement algorithms have been developed to promote fundus
observation on degraded images, high data demands and limited applicability
hinder their clinical deployment. To circumvent this bottleneck, a generic
fundus image enhancement network (GFE-Net) is developed in this study to
robustly correct unknown fundus images without supervised or extra data.
Levering image frequency information, self-supervised representation learning
is conducted to learn robust structure-aware representations from degraded
images. Then with a seamless architecture that couples representation learning
and image enhancement, GFE-Net can accurately correct fundus images and
meanwhile preserve retinal structures. Comprehensive experiments are
implemented to demonstrate the effectiveness and advantages of GFE-Net.
Compared with state-of-the-art algorithms, GFE-Net achieves superior
performance in data dependency, enhancement performance, deployment efficiency,
and scale generalizability. Follow-up fundus image analysis is also facilitated
by GFE-Net, whose modules are respectively verified to be effective for image
enhancement.
- Abstract(参考訳): 眼科医や知的システムによる臨床検査に影響を及ぼす画像品質の劣化に、眼底写真は苦しむ傾向にある。
劣化画像の基底観察を促進するために拡張アルゴリズムが開発されたが、高いデータ要求と限定的な適用性が臨床展開を妨げる。
このボトルネックを回避するために、監視や余分なデータなしで未知の眼底画像の堅牢な補正を行うために、汎用的眼底画像強調ネットワーク(GFE-Net)を開発した。
画像周波数情報を利用して自己教師付き表現学習を行い、劣化画像から頑健な構造認識表現を学習する。
そして、表現学習と画像強調を兼ね備えたシームレスなアーキテクチャにより、GFE-Netは眼底画像を正確に修正し、網膜構造を保存できる。
GFE-Netの有効性と利点を示すため、総合的な実験を行った。
最先端のアルゴリズムと比較すると、GFE-Netはデータ依存性、パフォーマンスの向上、デプロイメント効率、スケールの一般化性において優れたパフォーマンスを実現している。
また,GFE-Netでは,各モジュールが画像強調に有効であることが確認された。
関連論文リスト
- FGR-Net:Interpretable fundus imagegradeability classification based on deepreconstruction learning [4.377496499420086]
本稿ではFGR-Netと呼ばれる新しいフレームワークを提案する。
FGR-Netモデルは、可視化による解釈可能な品質評価も提供する。
その結果,FGR-Netの精度は89%,F1スコアは87%であった。
論文 参考訳(メタデータ) (2024-09-16T12:56:23Z) - Ultrasound Image Enhancement using CycleGAN and Perceptual Loss [4.428854369140015]
本研究は超音波画像,特に携帯型ハンドヘルドデバイスで捉えた画像の高機能化を目的とした高度なフレームワークを導入する。
我々は,5臓器系における超音波画像強調のために,CycleGANモデルを用いた。
論文 参考訳(メタデータ) (2023-12-18T23:21:00Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - JPEG Steganalysis Based on Steganographic Feature Enhancement and Graph
Attention Learning [15.652077779677091]
JPEGステガナリシスのための表現学習アルゴリズムを提案する。
グラフ注意学習モジュールは、畳み込みニューラルネットワークの局所的特徴学習によるグローバルな特徴損失を回避するように設計されている。
本発明の特徴強化モジュールは、畳み込み層の積み重ねがステガノグラフ情報を弱めるのを防止するために適用される。
論文 参考訳(メタデータ) (2023-02-05T01:42:19Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Leveraging Regular Fundus Images for Training UWF Fundus Diagnosis
Models via Adversarial Learning and Pseudo-Labeling [29.009663623719064]
オプトスカメラによる超広視野(UWF)200度の基礎イメージングが徐々に導入されている。
正規の眼底画像は、大量の高品質な注釈付きデータを含んでいる。
ドメインギャップのため、UWFファウンス画像を認識するために、通常のファウンス画像によって訓練されたモデルは、性能が良くない。
本稿では,通常のUWFファウンダスとUWFファウンダスとのギャップを埋めるために,修正サイクル生成対逆ネットワーク(CycleGAN)モデルを提案する。
論文 参考訳(メタデータ) (2020-11-27T16:25:30Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。