論文の概要: Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images
- arxiv url: http://arxiv.org/abs/2203.02390v1
- Date: Fri, 4 Mar 2022 15:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:40:53.402787
- Title: Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images
- Title(参考訳): ハイブリッド2D-3Dネットワークを用いた網膜CT画像の3次元コヒーレント層分割のための同時アライメントと表面回帰
- Authors: Hong Liu, Dong Wei, Donghuan Lu, Yuexiang Li, Kai Ma, Liansheng Wang,
Yefeng Zheng
- Abstract要約: 本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 33.99874168018807
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated surface segmentation of retinal layer is important and challenging
in analyzing optical coherence tomography (OCT). Recently, many deep learning
based methods have been developed for this task and yield remarkable
performance. However, due to large spatial gap and potential mismatch between
the B-scans of OCT data, all of them are based on 2D segmentation of individual
B-scans, which may loss the continuity information across the B-scans. In
addition, 3D surface of the retina layers can provide more diagnostic
information, which is crucial in quantitative image analysis. In this study, a
novel framework based on hybrid 2D-3D convolutional neural networks (CNNs) is
proposed to obtain continuous 3D retinal layer surfaces from OCT. The 2D
features of individual B-scans are extracted by an encoder consisting of 2D
convolutions. These 2D features are then used to produce the alignment
displacement field and layer segmentation by two 3D decoders, which are coupled
via a spatial transformer module. The entire framework is trained end-to-end.
To the best of our knowledge, this is the first study that attempts 3D retinal
layer segmentation in volumetric OCT images based on CNNs. Experiments on a
publicly available dataset show that our framework achieves superior results to
state-of-the-art 2D methods in terms of both layer segmentation accuracy and
cross-B-scan 3D continuity, thus offering more clinical values than previous
works.
- Abstract(参考訳): 光コヒーレンストモグラフィー(OCT)解析において網膜層の自動表面分画は重要かつ困難である。
近年,この課題に対して多くの深層学習手法が開発され,性能が著しく向上している。
しかし、OCTデータのBスキャン間の空間的ギャップと潜在的なミスマッチのため、これらは全て個々のBスキャンの2次元分割に基づいており、Bスキャン全体の連続性情報を失う可能性がある。
さらに、網膜層の3次元表面は、定量的画像解析において重要な診断情報を提供することができる。
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
個々のBスキャンの2次元特徴は、2次元畳み込みからなるエンコーダによって抽出される。
これらの2次元特徴は、空間トランスモジュールを介して結合された2つの3次元デコーダによるアライメント変位場と層分割を生成するために使用される。
フレームワーク全体がエンドツーエンドでトレーニングされる。
私たちの知る限りでは、cnnに基づくボリューム型oct画像における3d網膜層セグメンテーションを試みる最初の研究です。
公開データセットを用いた実験により,本フレームワークは,階層分割精度とクロスBスキャン3D連続性の両方の観点から,最先端の2D手法よりも優れた結果が得られた。
関連論文リスト
- Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations [32.69359482975795]
本研究は, ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として, OCTボリュームから連続した3次元網膜層表面を得るための新しい枠組みを提案する。
人工的データセットと3つのパブリックな臨床データセットの実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整できることを示した。
論文 参考訳(メタデータ) (2023-12-04T08:32:31Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。