論文の概要: VC-Net: Deep Volume-Composition Networks for Segmentation and
Visualization of Highly Sparse and Noisy Image Data
- arxiv url: http://arxiv.org/abs/2009.06184v1
- Date: Mon, 14 Sep 2020 04:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 13:09:50.716494
- Title: VC-Net: Deep Volume-Composition Networks for Segmentation and
Visualization of Highly Sparse and Noisy Image Data
- Title(参考訳): VC-Net:高スパース・ノイズ画像データの分割と可視化のための深部ボリューム合成ネットワーク
- Authors: Yifan Wang, Guoli Yan, Haikuan Zhu, Sagar Buch, Ying Wang, Ewart Mark
Haacke, Jing Hua, and Zichun Zhong
- Abstract要約: 本稿では,3次元微小血管のロバスト抽出のためのエンドツーエンド深層学習手法VC-Netを提案する。
中心となる新規性は、ボリューム可視化技術(MIP)を自動利用して、3Dデータ探索を強化することである。
マルチストリーム畳み込みニューラルネットワークは、それぞれ3次元体積と2次元MIPの特徴を学習し、その相互依存性を結合体積-合成埋め込み空間で探索するために提案される。
- 参考スコア(独自算出の注目度): 13.805816310795256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The motivation of our work is to present a new visualization-guided computing
paradigm to combine direct 3D volume processing and volume rendered clues for
effective 3D exploration such as extracting and visualizing microstructures
in-vivo. However, it is still challenging to extract and visualize high
fidelity 3D vessel structure due to its high sparseness, noisiness, and complex
topology variations. In this paper, we present an end-to-end deep learning
method, VC-Net, for robust extraction of 3D microvasculature through embedding
the image composition, generated by maximum intensity projection (MIP), into 3D
volume image learning to enhance the performance. The core novelty is to
automatically leverage the volume visualization technique (MIP) to enhance the
3D data exploration at deep learning level. The MIP embedding features can
enhance the local vessel signal and are adaptive to the geometric variability
and scalability of vessels, which is crucial in microvascular tracking. A
multi-stream convolutional neural network is proposed to learn the 3D volume
and 2D MIP features respectively and then explore their inter-dependencies in a
joint volume-composition embedding space by unprojecting the MIP features into
3D volume embedding space. The proposed framework can better capture small /
micro vessels and improve vessel connectivity. To our knowledge, this is the
first deep learning framework to construct a joint convolutional embedding
space, where the computed vessel probabilities from volume rendering based 2D
projection and 3D volume can be explored and integrated synergistically.
Experimental results are compared with the traditional 3D vessel segmentation
methods and the deep learning state-of-the-art on public and real patient
(micro-)cerebrovascular image datasets. Our method demonstrates the potential
in a powerful MR arteriogram and venogram diagnosis of vascular diseases.
- Abstract(参考訳): 私たちの研究の動機は、直接3dボリューム処理とボリュームレンダリングされた手掛かりを組み合わせて、vivo中の微細構造の抽出や可視化といった効果的な3d探索を行うための、可視化誘導型コンピューティングパラダイムを提供することです。
しかし,高感度な3d容器構造の抽出と可視化は,高いスパース性,ノイズ性,複雑なトポロジー変化により依然として困難である。
本稿では,最大強度投影法(MIP)により生成した画像成分を3次元ボリューム画像学習に組み込むことにより,3次元微小血管の堅牢な抽出を行う,エンドツーエンドの深層学習手法VC-Netを提案する。
中心となる新規性は、ボリューム可視化技術(MIP)を自動利用して、ディープラーニングレベルでの3Dデータ探索を強化することである。
MIP埋め込み機能は局所的な血管信号を強化し、血管の幾何学的変動性とスケーラビリティに適応する。
マルチストリーム畳み込みニューラルネットワークは, それぞれ3次元体積と2次元MIPの特徴を学習し, MIP特徴を3次元体積埋め込み空間に投影することにより, 結合体積合成埋め込み空間における相互依存性を探索する。
提案するフレームワークは,小型/小型の容器を捕集し,接続性を向上させる。
私たちの知る限りでは、これは結合畳み込み空間を構築する最初のディープラーニングフレームワークであり、ボリュームレンダリングに基づく2次元投影と3次元ボリュームによる計算された容器確率を相乗的に探索し統合することができる。
実験結果は、従来の3D血管分割法と、患者および実際の脳血管画像データセットにおけるディープラーニングの現状と比較した。
本手法は, 強力なMR動脈造影および血管疾患の静脈造影診断の可能性を示す。
関連論文リスト
- Improving 3D Medical Image Segmentation at Boundary Regions using Local Self-attention and Global Volume Mixing [14.0825980706386]
ボリューム・メディカル・イメージ・セグメンテーションは、与えられた3次元ボリューム・メディカル・イメージをボクセルレベルの精度で正確に分類することを目的とする医用画像解析の基本的な問題である。
本研究では,3次元医用画像セグメンテーションにおける局所的およびグローバルな依存関係を明示的に捉えることを目的とした,階層型エンコーダデコーダベースの新しいフレームワークを提案する。
提案フレームワークは,局所的なボリュームベースの自己アテンションを利用して局所的な依存関係を高解像度でエンコードし,低解像度の特徴表現でグローバルな依存関係をキャプチャする新しいボリュームミキサを導入する。
論文 参考訳(メタデータ) (2024-10-20T11:08:38Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - MinD-3D: Reconstruct High-quality 3D objects in Human Brain [50.534007259536715]
Recon3DMindは、fMRI(Functional Magnetic Resonance Imaging)信号から3次元視覚を再構成するための革新的なタスクである。
このデータセットは14人の参加者のデータを含み、3Dオブジェクトの360度ビデオが特徴である。
我々は,脳の3次元視覚情報をfMRI信号から復号化するための,新規で効果的な3段階フレームワークMinD-3Dを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:21:36Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations [32.69359482975795]
本研究は, ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として, OCTボリュームから連続した3次元網膜層表面を得るための新しい枠組みを提案する。
人工的データセットと3つのパブリックな臨床データセットの実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整できることを示した。
論文 参考訳(メタデータ) (2023-12-04T08:32:31Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - Joint Self-Supervised Image-Volume Representation Learning with
Intra-Inter Contrastive Clustering [31.52291149830299]
自己教師付き学習は、ラベル付きデータから特徴表現を学習することで、ラベル付きトレーニングサンプルの欠如を克服することができる。
現在の医療分野におけるSSL技術のほとんどは、2D画像または3Dボリュームのために設計されている。
本研究では2次元および3次元データモダリティの教師なし共同学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T18:57:44Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - PAENet: A Progressive Attention-Enhanced Network for 3D to 2D Retinal
Vessel Segmentation [0.0]
光コヒーレンス・トモグラフィー(OCTA)画像では3次元から2次元の網膜血管セグメンテーションは難しい問題である。
本稿では,多機能表現を抽出するアテンション機構に基づくプログレッシブ・アテンション・エンハンスメント・ネットワーク(PAENet)を提案する。
提案アルゴリズムは,従来の手法と比較して最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-26T10:27:25Z) - Deep Direct Volume Rendering: Learning Visual Feature Mappings From
Exemplary Images [57.253447453301796]
本稿では,ディープ・ダイレクト・ボリューム・レンダリング(Deep Direct Volume Rendering,DVR)を導入し,ディープ・ニューラル・ネットワークをDVRアルゴリズムに統合する。
潜在色空間におけるレンダリングを概念化し、深層アーキテクチャを用いて特徴抽出と分類のための暗黙マッピングを学習できるようにする。
我々の一般化は、画像空間の例から直接エンドツーエンドにトレーニングできる新しいボリュームレンダリングアーキテクチャを導き出すのに役立つ。
論文 参考訳(メタデータ) (2021-06-09T23:03:00Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。