論文の概要: Rethinking Diffusion-Based Image Generators for Fundus Fluorescein Angiography Synthesis on Limited Data
- arxiv url: http://arxiv.org/abs/2412.12778v1
- Date: Tue, 17 Dec 2024 10:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 14:01:22.868214
- Title: Rethinking Diffusion-Based Image Generators for Fundus Fluorescein Angiography Synthesis on Limited Data
- Title(参考訳): 有限データを用いたファンスフルオレセイン血管造影のための拡散画像生成装置の再検討
- Authors: Chengzhou Yu, Huihui Fang, Hongqiu Wang, Ting Deng, Qing Du, Yanwu Xu, Weihua Yang,
- Abstract要約: 本稿では,医療データ制限の課題を克服するために,新しい潜伏拡散モデルに基づくフレームワークを提案する。
本フレームワークは,既存の方法と比較して最先端の成果を達成し,眼科診断や患者ケアの強化に有意な可能性を秘めている。
- 参考スコア(独自算出の注目度): 9.343430674144976
- License:
- Abstract: Fundus imaging is a critical tool in ophthalmology, with different imaging modalities offering unique advantages. For instance, fundus fluorescein angiography (FFA) can accurately identify eye diseases. However, traditional invasive FFA involves the injection of sodium fluorescein, which can cause discomfort and risks. Generating corresponding FFA images from non-invasive fundus images holds significant practical value but also presents challenges. First, limited datasets constrain the performance and effectiveness of models. Second, previous studies have primarily focused on generating FFA for single diseases or single modalities, often resulting in poor performance for patients with various ophthalmic conditions. To address these issues, we propose a novel latent diffusion model-based framework, Diffusion, which introduces a fine-tuning protocol to overcome the challenge of limited medical data and unleash the generative capabilities of diffusion models. Furthermore, we designed a new approach to tackle the challenges of generating across different modalities and disease types. On limited datasets, our framework achieves state-of-the-art results compared to existing methods, offering significant potential to enhance ophthalmic diagnostics and patient care. Our code will be released soon to support further research in this field.
- Abstract(参考訳): ファンドスイメージングは眼科において重要なツールであり、異なる画像モダリティは独特の利点をもたらす。
例えば、ftus fluorescein angiography(FFA)は眼疾患を正確に識別することができる。
しかし、伝統的な侵襲的FFAは、不快感とリスクを引き起こすフッ化セインナトリウムを注入する。
非侵襲的眼底画像から対応するFFA画像を生成することは重要な実用的価値を持つが、課題もある。
まず、限られたデータセットはモデルの性能と有効性を制約する。
第2に、以前の研究では、主に単一疾患や単一モダリティのためのFFAの生成に焦点を合わせており、しばしば眼科疾患の様々な患者に対するパフォーマンスが低下する。
これらの課題に対処するため,拡散モデルに基づく新しいフレームワークであるDiffusionを提案し,医療データ制限の課題を克服し,拡散モデルの生成能力を解き放つための微調整プロトコルを提案する。
さらに,さまざまなモダリティや病型にまたがって発生する課題に対処する新たなアプローチを考案した。
限られたデータセットにおいて,本フレームワークは既存の方法と比較して最先端の結果を達成し,眼科診断や患者ケアを向上する大きな可能性を秘めている。
私たちのコードはまもなくリリースされ、この分野のさらなる研究を支援します。
関連論文リスト
- Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - EyeDiff: text-to-image diffusion model improves rare eye disease diagnosis [7.884451100342276]
EyeDiffは、自然言語のプロンプトからマルチモーダル眼科画像を生成するために設計されたテキスト・ツー・イメージモデルである。
EyeDiffは8つの大規模なデータセットでトレーニングされており、10のマルチリージョンの外部データセットに適応している。
論文 参考訳(メタデータ) (2024-11-15T07:30:53Z) - FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Non-Invasive to Invasive: Enhancing FFA Synthesis from CFP with a Benchmark Dataset and a Novel Network [11.668955853078703]
Fundus Fluorescein Angiography (FFA) は網膜血管動態と病理学の知見を提供する。
非侵襲的なカラーファンドス写真からFFA画像を合成することは有意義だが難しい。
これまでの研究は主に単一疾患カテゴリーにおけるFFA合成に焦点を当てていた。
論文 参考訳(メタデータ) (2024-10-19T03:53:25Z) - Fundus to Fluorescein Angiography Video Generation as a Retinal Generative Foundation Model [13.378309762602095]
本稿では,単一のCF画像から動的FFAビデオを生成するGANモデルであるFundus2Videoを紹介する。
FVDは1497.12、PSNRは11.77である。
これらの結果から,Fundus2VideoはFFA検査の強力な非侵襲的代替品であり,多彩な網膜生成基盤モデルであると考えられた。
論文 参考訳(メタデータ) (2024-10-17T05:53:13Z) - A Disease-Specific Foundation Model Using Over 100K Fundus Images: Release and Validation for Abnormality and Multi-Disease Classification on Downstream Tasks [0.0]
基礎画像の異常を検出するための教師付き人工知能モデルであるFundus-Specific Pretrained Model(Image+Fundus)を開発した。
57,803枚の画像を用いて、この事前訓練されたモデルを開発し、様々な下流タスクにおいて優れた性能を実現した。
論文 参考訳(メタデータ) (2024-08-16T15:03:06Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Fundus-Enhanced Disease-Aware Distillation Model for Retinal Disease
Classification from OCT Images [6.72159216082989]
OCT画像から網膜疾患分類のための基礎疾患対応蒸留モデルを提案する。
本フレームワークは, 未完成の眼底画像を用いて, OCTモデルを訓練中に強化する。
提案手法は網膜疾患分類のための単一モーダル,多モーダルおよび最先端蒸留法より優れている。
論文 参考訳(メタデータ) (2023-08-01T05:13:02Z) - GAMMA Challenge:Glaucoma grAding from Multi-Modality imAges [48.98620387924817]
グラウコーマgAding from Multi-Modality imAges (GAMMA) Challenge を作成した。
この課題の主な課題は,2次元眼底画像と3D OCTスキャンボリュームから緑内障を診断することである。
緑内障のカラー写真と3D OCTボリュームを併用した緑内障アノテートデータセットを公表した。
論文 参考訳(メタデータ) (2022-02-14T06:54:15Z) - FetReg: Placental Vessel Segmentation and Registration in Fetoscopy
Challenge Dataset [57.30136148318641]
Fetoscopy Laser Photocoagulation はツイン・ツー・ツイン・トランスフュージョン症候群(TTTS)の治療に広く用いられている治療法である
これにより、プロシージャ時間と不完全アブレーションが増加し、持続的なTTTSが生じる可能性がある。
コンピュータ支援による介入は、ビデオモザイクによって胎児の視野を広げ、船体ネットワークのより良い視覚化を提供することによって、これらの課題を克服するのに役立つかもしれない。
本稿では,長期フェトスコープビデオからドリフトフリーモザイクを作成することを目的とした,胎児環境のための汎用的でロバストなセマンティックセマンティックセグメンテーションとビデオモザイクアルゴリズムを開発するための大規模マルチセントデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:14:27Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。