論文の概要: Deep-Learning-based Vascularture Extraction for Single-Scan Optical
Coherence Tomography Angiography
- arxiv url: http://arxiv.org/abs/2304.08282v1
- Date: Mon, 17 Apr 2023 13:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 14:59:02.243971
- Title: Deep-Learning-based Vascularture Extraction for Single-Scan Optical
Coherence Tomography Angiography
- Title(参考訳): シングルスキャン光コヒーレンストモグラフィーのための深層学習に基づく血管抽出
- Authors: Jinpeng Liao, Tianyu Zhang, Yilong Zhang, Chunhui Li, Zhihong Huang
- Abstract要約: 我々は,OCTA画像を生成するために1回のOCTスキャンのみを用いる血管抽出パイプラインを提案する。
このパイプラインは、畳み込みプロジェクションを利用して画像パッチ間の空間的関係をよりよく学習する、提案されたVasculature extract Transformer (VET)に基づいている。
- 参考スコア(独自算出の注目度): 9.77526300425824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical coherence tomography angiography (OCTA) is a non-invasive imaging
modality that extends the functionality of OCT by extracting moving red blood
cell signals from surrounding static biological tissues. OCTA has emerged as a
valuable tool for analyzing skin microvasculature, enabling more accurate
diagnosis and treatment monitoring. Most existing OCTA extraction algorithms,
such as speckle variance (SV)- and eigen-decomposition (ED)-OCTA, implement a
larger number of repeated (NR) OCT scans at the same position to produce
high-quality angiography images. However, a higher NR requires a longer data
acquisition time, leading to more unpredictable motion artifacts. In this
study, we propose a vasculature extraction pipeline that uses only one-repeated
OCT scan to generate OCTA images. The pipeline is based on the proposed
Vasculature Extraction Transformer (VET), which leverages convolutional
projection to better learn the spatial relationships between image patches. In
comparison to OCTA images obtained via the SV-OCTA (PSNR: 17.809) and ED-OCTA
(PSNR: 18.049) using four-repeated OCT scans, OCTA images extracted by VET
exhibit moderate quality (PSNR: 17.515) and higher image contrast while
reducing the required data acquisition time from ~8 s to ~2 s. Based on visual
observations, the proposed VET outperforms SV and ED algorithms when using neck
and face OCTA data in areas that are challenging to scan. This study represents
that the VET has the capacity to extract vascularture images from a fast
one-repeated OCT scan, facilitating accurate diagnosis for patients.
- Abstract(参考訳): 光コヒーレンス断層撮影血管造影(OCTA)は、周囲の静的生体組織から赤血球シグナルを抽出することによりOCTの機能を拡張する非侵襲的な画像モダリティである。
OCTAは皮膚微小血管の分析に有用なツールとして登場し、より正確な診断と治療のモニタリングを可能にしている。
speckle variance (sv)-およびeigen-decomposition (ed)-octaのような既存のオクタード抽出アルゴリズムは、同じ位置においてより多くの繰り返し (nr) oct スキャンを実装し、高品質の血管造影画像を生成する。
しかし、より高いNRは、より長いデータ取得時間を必要とし、予測不可能なモーションアーティファクトをもたらす。
本研究では1回のOCTスキャンのみを用いてOCTA画像を生成する血管抽出パイプラインを提案する。
このパイプラインは、画像パッチ間の空間関係をよりよく学習するために畳み込み投影を利用するvet(vasculature extraction transformer)に基づいている。
SV-OCTA (PSNR: 17.809) とED-OCTA (PSNR: 18.049) による4回のOCTスキャンによるOCTA画像と比較すると、VETによって抽出されたOCTA画像は、必要なデータ取得時間を ~8秒から ~2秒に短縮しつつ、中程度の品質 (PSNR: 17.515) と高い画像コントラストを示す。
視覚観察に基づいて,提案するvetは,スキャンが難しい領域でネックデータと面オクタデータを使用する場合,svおよびedアルゴリズムよりも優れている。
本研究は、VETが高速1回OCTスキャンから血管画像の抽出能力を有しており、患者の正確な診断を容易にすることを示唆している。
関連論文リスト
- Quantitative Characterization of Retinal Features in Translated OCTA [0.6664270117164767]
本研究では、生成機械学習(ML)を用いてOCT画像からOCTA画像への変換の可能性を検討する。
論文 参考訳(メタデータ) (2024-04-24T18:40:45Z) - WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss [9.59233136691378]
コーンビームCT(CBCT)は画像誘導放射線治療中に定期的に収集される。
近年, 深層学習に基づくCBCT強調法は, 人工物抑制に有望な成果を上げている。
本稿では,高画質CBCT画像から高画質CTライク画像へ変換する特徴指向ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T10:09:01Z) - Robust Implementation of Foreground Extraction and Vessel Segmentation
for X-ray Coronary Angiography Image Sequence [4.653742319057035]
X-ray coronary angiography (XCA) 画像からの造影血管の抽出は臨床的に重要である。
テンソルロバスト主成分分析(TRPCA)に基づく容器層抽出法を提案する。
不均質なコントラスト分布を有する容器画像に対しては,2段階成長(TSRG)法を用いて血管拡張とセグメンテーションを行う。
論文 参考訳(メタデータ) (2022-09-15T12:07:09Z) - Multi-scale reconstruction of undersampled spectral-spatial OCT data for
coronary imaging using deep learning [1.8359410255568984]
血管内光コヒーレンス断層撮影(IV OCT)は冠状動脈疾患(CAD)の診断・治療に最適であると考えられる。
高分解能と高速走査率のトレードオフがある。
本稿では,スペクトル領域と空間領域の両方でサンプリングプロセスをダウンスケールするスペクトル空間取得手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T16:37:25Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Blood vessel segmentation in en-face OCTA images: a frequency based
method [3.6055028453181013]
本稿では,画像の周波数表現に基づく血管識別手法を提案する。
このアルゴリズムは、Cirrus HD-OCTデバイスによって取得された10ドルの眼から得られるOCTA画像データセットに基づいて評価される。
論文 参考訳(メタデータ) (2021-09-13T16:42:58Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。