論文の概要: OCT2Confocal: 3D CycleGAN based Translation of Retinal OCT Images to
Confocal Microscopy
- arxiv url: http://arxiv.org/abs/2311.10902v3
- Date: Sat, 17 Feb 2024 01:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 04:47:50.967542
- Title: OCT2Confocal: 3D CycleGAN based Translation of Retinal OCT Images to
Confocal Microscopy
- Title(参考訳): OCT2 Confocal: 3D CycleGANによる網膜OCT画像の共焦点顕微鏡への変換
- Authors: Xin Tian, Nantheera Anantrasirichai, Lindsay Nicholson, Alin Achim
- Abstract要約: In-vivo OCTを前-vivo共焦点顕微鏡画像に教師なし翻訳するための3D CycleGANフレームワークを開発した。
これは、OCTの固有の3D情報を利用して、共焦点顕微鏡のリッチで詳細な色領域に変換する最初の試みである。
- 参考スコア(独自算出の注目度): 12.367828307288105
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optical coherence tomography (OCT) and confocal microscopy are pivotal in
retinal imaging, each presenting unique benefits and limitations. In-vivo OCT
offers rapid, non-invasive imaging but can be hampered by clarity issues and
motion artifacts. Ex-vivo confocal microscopy provides high-resolution,
cellular detailed color images but is invasive and poses ethical concerns and
potential tissue damage. To bridge these modalities, we developed a 3D CycleGAN
framework for unsupervised translation of in-vivo OCT to ex-vivo confocal
microscopy images. Applied to our OCT2Confocal dataset, this framework
effectively translates between 3D medical data domains, capturing vascular,
textural, and cellular details with precision. This marks the first attempt to
exploit the inherent 3D information of OCT and translate it into the rich,
detailed color domain of confocal microscopy. Assessed through quantitative and
qualitative evaluations, the 3D CycleGAN framework demonstrates commendable
image fidelity and quality, outperforming existing methods despite the
constraints of limited data. This non-invasive generation of retinal confocal
images has the potential to further enhance diagnostic and monitoring
capabilities in ophthalmology. Our source code and OCT2Confocal dataset are
available at https://github.com/xintian-99/OCT2Confocal.
- Abstract(参考訳): 光コヒーレンス断層撮影(oct)と共焦点顕微鏡は網膜イメージングにおいて重要な役割を果たす。
In-vivo OCTは、迅速で非侵襲的な画像を提供するが、明快な問題や運動アーティファクトによって妨げられる。
元vivo共焦点顕微鏡は高分解能で細胞質の詳細なカラー画像を提供するが、侵襲的であり、倫理的な懸念と潜在的な組織損傷を引き起こす。
これらのモダリティを橋渡しするために, in-vivo oct から ex-vivo 共焦点顕微鏡画像への教師なし変換のための 3d cyclegan フレームワークを開発した。
OCT2Confocalのデータセットに適用すると、このフレームワークは3Dの医療データドメイン間で効果的に翻訳され、血管、テクスチャ、細胞の詳細を精度良くキャプチャする。
これは、octの固有の3d情報を活用し、共焦点顕微鏡のリッチで詳細な色領域に変換する最初の試みである。
3D CycleGANフレームワークは、量的および質的な評価を通じて評価され、圧縮可能な画像の忠実度と品質を示し、制限されたデータの制約にもかかわらず、既存の手法よりも優れている。
この非侵襲的な網膜共焦点画像の生成は、眼科における診断とモニタリング機能をさらに強化する可能性がある。
ソースコードとOCT2Confocalデータセットはhttps://github.com/xintian-99/OCT2Confocalで公開されています。
関連論文リスト
- Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Vessel-Promoted OCT to OCTA Image Translation by Heuristic Contextual
Constraints [27.28468771485413]
本稿では、3D光コヒーレンス・トモグラフィー(OCT)画像を画像変換パターンを用いて排他的な3DOCTA画像に変換する新しいフレームワークであるTransProを提案する。
我々の主な目的は、既存の画像翻訳ベースラインにおける2つの問題、すなわち、翻訳プロセスにおける目的のないことと、翻訳対象の不完全性に対処することである。
TransProは、トレーニング中に最小限の計算オーバーヘッドで既存のアプローチを継続的に上回り、テスト中には何もしない。
論文 参考訳(メタデータ) (2023-03-13T01:42:29Z) - nnUNet RASPP for Retinal OCT Fluid Detection, Segmentation and
Generalisation over Variations of Data Sources [25.095695898777656]
我々は、複数のデバイスベンダーの画像間で一貫した高パフォーマンスを持つnnUNetの2つの変種を提案する。
このアルゴリズムはMICCAI 2017 RETOUCHチャレンジデータセットで検証された。
実験の結果,我々のアルゴリズムは最先端のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-02-25T23:47:23Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Medical Diffusion -- Denoising Diffusion Probabilistic Models for 3D
Medical Image Generation [0.6486409713123691]
拡散確率モデルが高品質な医用画像データを合成可能であることを示す。
本研究は,2人の医療専門家による読影研究を通じて,そのパフォーマンスを定量的に測定する。
自己教師付き事前訓練において合成画像が利用可能であることを示し,データ不足時の乳房分割モデルの性能向上を図った。
論文 参考訳(メタデータ) (2022-11-07T08:37:48Z) - Feature Representation Learning for Robust Retinal Disease Detection
from Optical Coherence Tomography Images [0.0]
眼科画像は、異なる網膜変性疾患を区別する自動化技術で失敗する、同一の外観の病理を含んでいる可能性がある。
本研究では,3つの学習ヘッドを持つ堅牢な疾患検出アーキテクチャを提案する。
2つのOCTデータセットによる実験結果から,提案モデルが既存の最先端モデルよりも精度,解釈可能性,堅牢性に優れ,網膜外網膜疾患の検出に有用であることが示唆された。
論文 参考訳(メタデータ) (2022-06-24T07:59:36Z) - LIFE: A Generalizable Autodidactic Pipeline for 3D OCT-A Vessel
Segmentation [5.457168581192045]
最近のディープラーニングアルゴリズムは、有望な血管セグメンテーションの結果を生み出した。
しかし、手動による注記データがないため、3D網膜血管セグメンテーションは依然として困難である。
自己合成モダリティのみによって教師される学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T07:51:33Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。