論文の概要: The Quest for Early Detection of Retinal Disease: 3D CycleGAN-based Translation of Optical Coherence Tomography into Confocal Microscopy
- arxiv url: http://arxiv.org/abs/2408.04091v1
- Date: Wed, 7 Aug 2024 21:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 17:20:07.246691
- Title: The Quest for Early Detection of Retinal Disease: 3D CycleGAN-based Translation of Optical Coherence Tomography into Confocal Microscopy
- Title(参考訳): 網膜疾患早期診断の探求:3D CycleGANを用いた光コヒーレンストモグラフィーの共焦点顕微鏡への変換
- Authors: Xin Tian, Nantheera Anantrasirichai, Lindsay Nicholson, Alin Achim,
- Abstract要約: 生体内OCTを生体内共焦点顕微鏡画像に変換するために, 教師なし3D CycleGANに基づく新しいフレームワークを提案する。
これは、OCTの固有の3D情報を利用して、共焦点顕微鏡のリッチで詳細な色領域に変換する最初の試みである。
- 参考スコア(独自算出の注目度): 11.321411104729002
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optical coherence tomography (OCT) and confocal microscopy are pivotal in retinal imaging, offering distinct advantages and limitations. In vivo OCT offers rapid, non-invasive imaging but can suffer from clarity issues and motion artifacts, while ex vivo confocal microscopy, providing high-resolution, cellular-detailed color images, is invasive and raises ethical concerns. To bridge the benefits of both modalities, we propose a novel framework based on unsupervised 3D CycleGAN for translating unpaired in vivo OCT to ex vivo confocal microscopy images. This marks the first attempt to exploit the inherent 3D information of OCT and translate it into the rich, detailed color domain of confocal microscopy. We also introduce a unique dataset, OCT2Confocal, comprising mouse OCT and confocal retinal images, facilitating the development of and establishing a benchmark for cross-modal image translation research. Our model has been evaluated both quantitatively and qualitatively, achieving Fr\'echet Inception Distance (FID) scores of 0.766 and Kernel Inception Distance (KID) scores as low as 0.153, and leading subjective Mean Opinion Scores (MOS). Our model demonstrated superior image fidelity and quality with limited data over existing methods. Our approach effectively synthesizes color information from 3D confocal images, closely approximating target outcomes and suggesting enhanced potential for diagnostic and monitoring applications in ophthalmology.
- Abstract(参考訳): 光コヒーレンス断層撮影(OCT)と共焦点顕微鏡は網膜イメージングにおいて重要な役割を担っている。
生体内OCTは、迅速で非侵襲的な画像を提供するが、明快な問題や運動アーティファクトに悩まされる可能性がある。
両モダリティの利点を橋渡しするために, 未経験のOCTを生体共焦点顕微鏡画像に変換するために, 教師なしの3D CycleGANに基づく新しいフレームワークを提案する。
これは、OCTの固有の3D情報を利用して、共焦点顕微鏡のリッチで詳細な色領域に変換する最初の試みである。
また、マウスOCTと共焦点網膜画像からなる独自のデータセットOCT2Confocalを導入し、クロスモーダル画像翻訳研究のためのベンチマークの開発と確立を容易にする。
また,Fr'echet Inception Distance(FID)スコアが0.766,Kernel Inception Distance(KID)スコアが0.153,主観的平均オピニオンスコア(MOS)スコアが1。
本モデルでは,既存の手法よりも少ないデータで画像の忠実度と品質を実証した。
提案手法は, 3次元共焦点画像から色情報を効果的に合成し, 目標値の密接な近似を行い, 眼科領域における診断・モニタリングの可能性が示唆された。
関連論文リスト
- Abnormality-Driven Representation Learning for Radiology Imaging [0.8321462983924758]
病変強調型コントラスト学習(LeCL)は,CTスキャンの異なる部位にわたる2次元軸方向スライスにおける異常により引き起こされる視覚的表現を得るための新しい手法である。
本研究は, 腫瘍病変位置, 肺疾患検出, 患者ステージングの3つの臨床的課題に対するアプローチを, 最先端の4つの基礎モデルと比較した。
論文 参考訳(メタデータ) (2024-11-25T13:53:26Z) - OCTCube: A 3D foundation model for optical coherence tomography that improves cross-dataset, cross-disease, cross-device and cross-modality analysis [11.346324975034051]
OCTCubeは、26,605個の3D OCTボリュームで事前訓練された3Dファンデーションモデルである。
インダクティブとクロスデータセットの両方の設定で8つの網膜疾患を予測する場合、2Dモデルよりも優れています。
また、クロスデバイス予測や、糖尿病や高血圧などの全身疾患の予測に優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-20T22:55:19Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - OCT2Confocal: 3D CycleGAN based Translation of Retinal OCT Images to
Confocal Microscopy [12.367828307288105]
In-vivo OCTを前-vivo共焦点顕微鏡画像に教師なし翻訳するための3D CycleGANフレームワークを開発した。
これは、OCTの固有の3D情報を利用して、共焦点顕微鏡のリッチで詳細な色領域に変換する最初の試みである。
論文 参考訳(メタデータ) (2023-11-17T22:48:50Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Assignment Flow for Order-Constrained OCT Segmentation [0.0]
網膜層厚の同定は、患者ごとに個別に行う重要な課題である。
自動セグメンテーションモデルの構築は,医用画像処理分野において重要な課題となっている。
我々は、秩序に制約された3D OCT網膜細胞層セグメンテーションのための新しい、純粋にデータ駆動型テキスト幾何学的アプローチを提案する。
論文 参考訳(メタデータ) (2020-09-10T01:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。