論文の概要: Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations
- arxiv url: http://arxiv.org/abs/2312.01726v1
- Date: Mon, 4 Dec 2023 08:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:51:09.424383
- Title: Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations
- Title(参考訳): ハイブリッド2d-3dネットワークを用いた網膜oct画像の3次元コヒーレント層分割のための同時アライメントと表面回帰
- Authors: Hong Liu, Dong Wei, Donghuan Lu, Xiaoying Tang, Liansheng Wang, Yefeng
Zheng
- Abstract要約: 本研究は, ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として, OCTボリュームから連続した3次元網膜層表面を得るための新しい枠組みを提案する。
人工的データセットと3つのパブリックな臨床データセットの実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整できることを示した。
- 参考スコア(独自算出の注目度): 32.69359482975795
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Layer segmentation is important to quantitative analysis of retinal optical
coherence tomography (OCT). Recently, deep learning based methods have been
developed to automate this task and yield remarkable performance. However, due
to the large spatial gap and potential mismatch between the B-scans of an OCT
volume, all of them were based on 2D segmentation of individual B-scans, which
may lose the continuity and diagnostic information of the retinal layers in 3D
space. Besides, most of these methods required dense annotation of the OCT
volumes, which is labor-intensive and expertise-demanding. This work presents a
novel framework based on hybrid 2D-3D convolutional neural networks (CNNs) to
obtain continuous 3D retinal layer surfaces from OCT volumes, which works well
with both full and sparse annotations. The 2D features of individual B-scans
are extracted by an encoder consisting of 2D convolutions. These 2D features
are then used to produce the alignment displacement vectors and layer
segmentation by two 3D decoders coupled via a spatial transformer module. Two
losses are proposed to utilize the retinal layers' natural property of being
smooth for B-scan alignment and layer segmentation, respectively, and are the
key to the semi-supervised learning with sparse annotation. The entire
framework is trained end-to-end. To the best of our knowledge, this is the
first work that attempts 3D retinal layer segmentation in volumetric OCT images
based on CNNs. Experiments on a synthetic dataset and three public clinical
datasets show that our framework can effectively align the B-scans for
potential motion correction, and achieves superior performance to
state-of-the-art 2D deep learning methods in terms of both layer segmentation
accuracy and cross-B-scan 3D continuity in both fully and semi-supervised
settings, thus offering more clinical values than previous works.
- Abstract(参考訳): 層分割は網膜光コヒーレンス断層撮影(OCT)の定量的解析に重要である。
近年,このタスクを自動化し,優れた性能を得るためのディープラーニングベースの手法が開発されている。
しかし, OCTボリュームのBスキャン間の空間的ギャップが大きく, 潜在的なミスマッチのため, いずれも個々のBスキャンの2次元セグメンテーションに基づいており, 3次元空間における網膜層の連続性と診断情報が失われる可能性がある。
さらに、これらの手法の多くは、労働集約的で専門的な要求であるOCTボリュームの高密度なアノテーションを必要とした。
本研究は,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として,OCTボリュームから連続した3次元網膜層表面を得る新しいフレームワークを提案する。
個々のBスキャンの2次元特徴は、2次元畳み込みからなるエンコーダによって抽出される。
これらの2次元特徴は、空間トランスモジュールを介して結合された2つの3次元デコーダによるアライメント変位ベクトルと層分割を生成するために使用される。
2つの損失は、それぞれBスキャンアライメントと層セグメンテーションにスムーズな網膜層の自然特性を利用することで、スパースアノテーションを用いた半教師学習の鍵となる。
フレームワーク全体がエンドツーエンドでトレーニングされる。
我々の知る限りでは、これはCNNに基づいたボリュームOCT画像において3次元網膜層セグメンテーションを試みる最初の試みである。
人工的データセットと3つの公的な臨床データセットを用いた実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整でき、また、階層分割精度とクロスBスキャン3D連続性の両方の観点から、最先端の2D深層学習法に優れた性能を達成できることが示された。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Joint Self-Supervised Image-Volume Representation Learning with
Intra-Inter Contrastive Clustering [31.52291149830299]
自己教師付き学習は、ラベル付きデータから特徴表現を学習することで、ラベル付きトレーニングサンプルの欠如を克服することができる。
現在の医療分野におけるSSL技術のほとんどは、2D画像または3Dボリュームのために設計されている。
本研究では2次元および3次元データモダリティの教師なし共同学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T18:57:44Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。