論文の概要: Deep Generative Models for Enhanced Vitreous OCT Imaging
- arxiv url: http://arxiv.org/abs/2511.00881v2
- Date: Tue, 04 Nov 2025 07:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.979353
- Title: Deep Generative Models for Enhanced Vitreous OCT Imaging
- Title(参考訳): 硝子体OCTイメージングのための深部生成モデル
- Authors: Simone Sarrocco, Philippe C. Cattin, Peter M. Maloca, Paul Friedrich, Philippe Valmaggia,
- Abstract要約: 条件付き拡散確率モデル(cDDPM)、ブラウン橋拡散モデル(BBDM)、U-Net、Pix2Pix、Vector-Quantized Generative Adversarial Network(VQ-GAN)を評価した。
- 参考スコア(独自算出の注目度): 0.7130302992490973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: To evaluate deep learning (DL) models for enhancing vitreous optical coherence tomography (OCT) image quality and reducing acquisition time. Methods: Conditional Denoising Diffusion Probabilistic Models (cDDPMs), Brownian Bridge Diffusion Models (BBDMs), U-Net, Pix2Pix, and Vector-Quantised Generative Adversarial Network (VQ-GAN) were used to generate high-quality spectral-domain (SD) vitreous OCT images. Inputs were SD ART10 images, and outputs were compared to pseudoART100 images obtained by averaging ten ART10 images per eye location. Model performance was assessed using image quality metrics and Visual Turing Tests, where ophthalmologists ranked generated images and evaluated anatomical fidelity. The best model's performance was further tested within the manually segmented vitreous on newly acquired data. Results: U-Net achieved the highest Peak Signal-to-Noise Ratio (PSNR: 30.230) and Structural Similarity Index Measure (SSIM: 0.820), followed by cDDPM. For Learned Perceptual Image Patch Similarity (LPIPS), Pix2Pix (0.697) and cDDPM (0.753) performed best. In the first Visual Turing Test, cDDPM ranked highest (3.07); in the second (best model only), cDDPM achieved a 32.9% fool rate and 85.7% anatomical preservation. On newly acquired data, cDDPM generated vitreous regions more similar in PSNR to the ART100 reference than true ART1 or ART10 B-scans and achieved higher PSNR on whole images when conditioned on ART1 than ART10. Conclusions: Results reveal discrepancies between quantitative metrics and clinical evaluation, highlighting the need for combined assessment. cDDPM showed strong potential for generating clinically meaningful vitreous OCT images while reducing acquisition time fourfold. Translational Relevance: cDDPMs show promise for clinical integration, supporting faster, higher-quality vitreous imaging. Dataset and code will be made publicly available.
- Abstract(参考訳): 目的:光コヒーレンストモグラフィ(OCT)画像の品質向上と取得時間短縮のための深層学習(DL)モデルの評価を行う。
方法: 条件付き拡散確率モデル (cDDPMs), ブラウン橋拡散モデル (BBDMs), U-Net, Pix2Pix, Vector-Quantized Generative Adversarial Network (VQ-GAN) を用いて, 高品質なスペクトル領域 (SD) 光CT画像を生成する。
入力はSD ART10画像で、出力は1眼あたり平均10枚のART10画像から得られた擬似ART100画像と比較された。
画像品質指標と視覚チューリングテストを用いて,眼科医が生成した画像の分類と解剖学的忠実度の評価を行った。
最高のモデルの性能は、新たに取得したデータに基づいて手動で分割されたヴィタリー内でさらにテストされた。
その結果、U-Netはピーク信号対雑音比(PSNR: 30.230)と構造類似度指数(SSIM: 0.820)を達成し、cDDPMが続いた。
For Learned Perceptual Image Patch similarity (LPIPS)、Pix2Pix (0.697)、cDDPM (0.753) が最高性能を記録した。
第1回ビジュアルチューリングテストでは、cDDPMが最も高く(3.07)、第2回(ベストモデルのみ)では、cDDPMは32.9%の愚かさと85.7%の解剖学的保存を達成した。
新たに取得したデータでは、cDDPMは真のART1やART10のBスキャンよりもART100参照に類似したPSNRが生成され、ART10よりもART1で条件付けされた場合、画像全体のPSNRが高くなった。
結論: 結果から, 定量的指標と臨床評価の相違が明らかとなり, 総合評価の必要性が浮き彫りとなった。
cDDPMは, 取得時間を4倍に減らしながら, 臨床的に有意なOCT像を産生する強い可能性を示した。
翻訳関連性: cDDPMは、より高速で高品質な硝子体画像撮影をサポートする臨床統合を約束する。
データセットとコードは公開されます。
関連論文リスト
- HepatoGEN: Generating Hepatobiliary Phase MRI with Perceptual and Adversarial Models [33.7054351451505]
肝胆道相(HBP)画像の初期コントラスト位相からの深層学習に基づく合成手法を提案する。
pGANの定量的評価は, 視力評価とブラインドドラジオロジカル・レビューの併用により, pGANが最高の定量的性能を示した。
対照的に、U-Netは、より少ないアーティファクトで一貫した肝拡張を発生させ、DDPMは、微細構造の詳細の保存が限られているため、性能が低下した。
論文 参考訳(メタデータ) (2025-04-25T15:01:09Z) - Patch-Based and Non-Patch-Based inputs Comparison into Deep Neural Models: Application for the Segmentation of Retinal Diseases on Optical Coherence Tomography Volumes [0.3749861135832073]
AMDは、2040年までに2億8800万人に達すると予想されている。
ディープラーニングネットワークは、画像とピクセルレベルの2Dスキャンの分類において有望な結果を示している。
DSC測定値のパッチベースモデルが最も高いスコアは0.88であり、SRF流体セグメンテーションの非パッチベースでは0.71であった。
論文 参考訳(メタデータ) (2025-01-22T10:22:08Z) - Enhanced Denoising of Optical Coherence Tomography Images Using Residual U-Net [0.0]
本稿では,雑音を効果的に低減し,画像の明瞭度を向上するResidual U-Netアーキテクチャを用いた拡張型復調モデルを提案する。
ピーク信号ノイズ比(PSNR)はPS OCT画像に対して34.343$pm$1.113であり、構造類似度指数測定(SSIM)値は0.885$pm$0.030である。
論文 参考訳(メタデータ) (2024-07-18T01:35:03Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - OCT-GAN: Single Step Shadow and Noise Removal from Optical Coherence
Tomography Images of the Human Optic Nerve Head [47.812972855826985]
我々は、ノイズと網膜の影の両方を10.4ms以内で見えない単一フレームのBスキャンから除去する単一プロセスを開発した。
提案アルゴリズムは,長い画像取得時間の必要性を低減し,高価なハードウェア要件を最小化し,OCT画像の動作アーティファクトを低減する。
論文 参考訳(メタデータ) (2020-10-06T08:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。