論文の概要: Deep OCT Angiography Image Generation for Motion Artifact Suppression
- arxiv url: http://arxiv.org/abs/2001.02512v1
- Date: Wed, 8 Jan 2020 13:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 12:57:35.755878
- Title: Deep OCT Angiography Image Generation for Motion Artifact Suppression
- Title(参考訳): モーションアーティファクト抑制のための深部oct血管造影画像生成
- Authors: Julian Hossbach, Lennart Husvogt, Martin F. Kraus, James G. Fujimoto,
Andreas K. Maier
- Abstract要約: 感染したスキャンは、強い(白)領域や欠落した(黒)領域として現れ、情報が失われる。
OCTからOCTAへの画像変換の深部生成モデルは、単一の無傷OCTスキャンに依存している。
U-Netは、OCTパッチから血管造影情報を抽出するように訓練される。
推定時に、検出アルゴリズムは、その環境に基づいて外部のOCTAスキャンを見つけ、それをトレーニングされたネットワークに置き換える。
- 参考スコア(独自算出の注目度): 8.442020709975015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye movements, blinking and other motion during the acquisition of optical
coherence tomography (OCT) can lead to artifacts, when processed to OCT
angiography (OCTA) images. Affected scans emerge as high intensity (white) or
missing (black) regions, resulting in lost information. The aim of this
research is to fill these gaps using a deep generative model for OCT to OCTA
image translation relying on a single intact OCT scan. Therefore, a U-Net is
trained to extract the angiographic information from OCT patches. At inference,
a detection algorithm finds outlier OCTA scans based on their surroundings,
which are then replaced by the trained network. We show that generative models
can augment the missing scans. The augmented volumes could then be used for 3-D
segmentation or increase the diagnostic value.
- Abstract(参考訳): 光コヒーレンストモグラフィ(OCT)取得時の眼球運動、点眼、その他の動きは、OCTA(OCT angiography)画像に処理されると、人工物につながる可能性がある。
影響を受けるスキャンは、高強度(白)または欠落(黒)の領域として出現し、結果として情報が失われる。
本研究の目的は,OCTからOCTAへの画像変換の深部生成モデルを用いて,このギャップを埋めることである。
したがって、U-Netは、OCTパッチから血管造影情報を抽出するように訓練される。
推定時に、検出アルゴリズムは、その環境に基づいて外部のOCTAスキャンを見つけ、それをトレーニングされたネットワークに置き換える。
生成モデルが欠落したスキャンを強化できることを示します。
拡張ボリュームは、3次元セグメンテーションや診断値の増加に使用できる。
関連論文リスト
- Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Cross-Vendor CT Image Data Harmonization Using CVH-CT [9.920558110069221]
異なるスキャナーを用いて撮像したCT画像データを調和させる方法は、大規模な大規模放射能研究において不可欠である。
本研究では,異なるベンダーのスキャナーを用いたCT画像の調和化のための,CVH-CTと呼ばれる新しい深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-19T02:15:26Z) - LIFE: A Generalizable Autodidactic Pipeline for 3D OCT-A Vessel
Segmentation [5.457168581192045]
最近のディープラーニングアルゴリズムは、有望な血管セグメンテーションの結果を生み出した。
しかし、手動による注記データがないため、3D網膜血管セグメンテーションは依然として困難である。
自己合成モダリティのみによって教師される学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T07:51:33Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Separation of target anatomical structure and occlusions in chest
radiographs [2.0478628221188497]
本稿では,無線画像から望ましくない視覚構造を抑圧する完全畳み込みネットワークを提案する。
提案アルゴリズムは高分解能CTスキャンから再構成されたラジオグラフィーと地上構造データを生成する。
論文 参考訳(メタデータ) (2020-02-03T14:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。