論文の概要: Context-Aware Optimal Transport Learning for Retinal Fundus Image Enhancement
- arxiv url: http://arxiv.org/abs/2409.07862v1
- Date: Thu, 12 Sep 2024 09:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 17:08:15.582612
- Title: Context-Aware Optimal Transport Learning for Retinal Fundus Image Enhancement
- Title(参考訳): 網膜基底画像強調のためのコンテキスト認識型最適輸送学習
- Authors: Vamsi Krishna Vasa, Peijie Qiu, Wenhui Zhu, Yujian Xiong, Oana Dumitrascu, Yalin Wang,
- Abstract要約: 本稿では,未実装の眼底画像強調に対処するためのコンテキストインフォームド・トランスポート(OT)学習フレームワークを提案する。
我々は、地球の距離移動器を用いて、提案した文脈認識OTを導出し、提案した文脈認識OTが確固とした理論的保証を有することを示す。
大規模データセットによる実験結果から,提案手法がいくつかの最先端の教師付きおよび教師なし手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.8339026473337505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retinal fundus photography offers a non-invasive way to diagnose and monitor a variety of retinal diseases, but is prone to inherent quality glitches arising from systemic imperfections or operator/patient-related factors. However, high-quality retinal images are crucial for carrying out accurate diagnoses and automated analyses. The fundus image enhancement is typically formulated as a distribution alignment problem, by finding a one-to-one mapping between a low-quality image and its high-quality counterpart. This paper proposes a context-informed optimal transport (OT) learning framework for tackling unpaired fundus image enhancement. In contrast to standard generative image enhancement methods, which struggle with handling contextual information (e.g., over-tampered local structures and unwanted artifacts), the proposed context-aware OT learning paradigm better preserves local structures and minimizes unwanted artifacts. Leveraging deep contextual features, we derive the proposed context-aware OT using the earth mover's distance and show that the proposed context-OT has a solid theoretical guarantee. Experimental results on a large-scale dataset demonstrate the superiority of the proposed method over several state-of-the-art supervised and unsupervised methods in terms of signal-to-noise ratio, structural similarity index, as well as two downstream tasks. The code is available at \url{https://github.com/Retinal-Research/Contextual-OT}.
- Abstract(参考訳): 網膜眼底写真は、様々な網膜疾患を診断し、監視する非侵襲的な方法を提供するが、全身的な不完全性や、オペレーター/患者関連因子から生じる固有の品質低下を引き起こす。
しかし、高画質網膜画像は正確な診断と自動解析を行う上で重要である。
低画質画像と高品質画像との1対1のマッピングを求めることにより、一般に分布アライメント問題として定式化される。
本稿では,未実装の眼底画像強調に対処するためのコンテキストインフォームド・トランスポート(OT)学習フレームワークを提案する。
文脈情報処理に苦労する標準的な生成画像強調手法とは対照的に,提案した文脈認識OT学習パラダイムは,局所構造をよりよく保存し,不要なアーティファクトを最小限に抑える。
深い文脈特徴を生かして、地球移動器の距離を用いて、提案した文脈認識OTを導出し、提案した文脈認識OTが確固とした理論的保証を有することを示す。
大規模データセットによる実験結果から,信号対雑音比,構造類似度指数,下流タスクの2つの観点から,最先端の教師付きおよび教師なし手法よりも提案手法の方が優れていることが示された。
コードは \url{https://github.com/Retinal-Research/Contextual-OT} で公開されている。
関連論文リスト
- TPOT: Topology Preserving Optimal Transport in Retinal Fundus Image Enhancement [16.84367978693017]
持続性図の差を最小限に抑えて血管構造を規則化する訓練パラダイムを提案する。
得られたフレームワークをTPOT(Topology Preserving Optimal Transport)と呼ぶ。
大規模データセットを用いた実験結果から,提案手法の優位性を示した。
論文 参考訳(メタデータ) (2024-11-03T02:04:35Z) - CUNSB-RFIE: Context-aware Unpaired Neural Schr"{o}dinger Bridge in Retinal Fundus Image Enhancement [15.399449331371402]
網膜画像強調のための画像から画像への変換パイプラインを提案する。
眼底画像強調フレームワークCUNSB-RFIE (Context-aware Unpaired Neural Schr"odinger Bridge) を命名した。
論文 参考訳(メタデータ) (2024-09-17T08:07:29Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Optimal Transport Guided Unsupervised Learning for Enhancing low-quality
Retinal Images [5.4240246179935845]
現実の非ミリ波網膜基底写真は、人工物、不完全、そして低品質である。
高品質な網膜基底画像の高精細化のための,シンプルで効果的なエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T18:29:30Z) - Restoring Vision in Hazy Weather with Hierarchical Contrastive Learning [53.85892601302974]
階層的コントラストデハージング(HCD)という,効果的な画像デハージング手法を提案する。
HCDは階層的脱ハージングネットワーク(HDN)と新しい階層的コントラスト損失(HCL)から構成される
論文 参考訳(メタデータ) (2022-12-22T03:57:06Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。