論文の概要: Morphology Edge Attention Network and Optimal Geometric Matching
Connection model for vascular segmentation
- arxiv url: http://arxiv.org/abs/2306.01808v2
- Date: Wed, 13 Dec 2023 09:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 20:53:06.888126
- Title: Morphology Edge Attention Network and Optimal Geometric Matching
Connection model for vascular segmentation
- Title(参考訳): 血管セグメンテーションのための形態的エッジアテンションネットワークと最適幾何マッチング接続モデル
- Authors: Yuntao Zhu, Yuxuan Qiao, Xiaoping Yang
- Abstract要約: 本稿では,容器状構造物のセグメンテーションのための新しい形態的エッジアテンションネットワーク(MEA-Net)を提案する。
また、壊れた容器セグメントを接続するための最適幾何マッチング接続(OGMC)モデルを提案する。
本手法は,3次元血管分割作業の4つのデータセットにおける最先端手法と比較して,優れた,あるいは競争的な結果が得られる。
- 参考スコア(独自算出の注目度): 3.6368619769561668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are many unsolved problems in vascular image segmentation, including
vascular structural connectivity, scarce branches and missing small vessels.
Obtaining vessels that preserve their correct topological structures is
currently a crucial research issue, as it provides an overall view of one
vascular system. In order to preserve the topology and accuracy of vessel
segmentation, we proposed a novel Morphology Edge Attention Network (MEA-Net)
for the segmentation of vessel-like structures, and an Optimal Geometric
Matching Connection (OGMC) model to connect the broken vessel segments. The
MEA-Net has an edge attention module that improves the segmentation of edges
and small objects by morphology operation extracting boundary voxels on
multi-scale. The OGMC model uses the concept of curve touching from
differential geometry to filter out fragmented vessel endpoints, and then
employs minimal surfaces to determine the optimal connection order between
blood vessels. Finally, we calculate the geodesic to repair missing vessels
under a given Riemannian metric. Our method achieves superior or competitive
results compared to state-of-the-art methods on four datasets of 3D vascular
segmentation tasks, both effectively reducing vessel broken and increasing
vessel branch richness, yielding blood vessels with a more precise topological
structure.
- Abstract(参考訳): 血管像の分割には、血管構造接続、枝の不足、小血管の欠如など多くの未解決の問題がある。
正しいトポロジー構造を保存する血管を得ることは、単一の血管系の全体像を提供するため、現在重要な研究課題である。
血管分割のトポロジと精度を維持するため,我々は,血管状構造のセグメンテーションのための新しいMorphology Edge Attention Network (MEA-Net) と,壊れた血管セグメントを接続するための最適幾何マッチング接続(OGMC)モデルを提案した。
mea-netは、マルチスケールで境界ボクセルを抽出する形態素演算により、エッジと小さなオブジェクトのセグメンテーションを改善するエッジアテンションモジュールを有する。
OGMCモデルは、微分幾何学からの曲線タッチの概念を用いて断片化された血管終端をフィルタリングし、最小表面を用いて血管間の最適接続順序を決定する。
最後に、与えられたリーマン計量の下で行方不明の船を修理する測地線を計算する。
本手法は, 血管破壊を効果的に抑制し, 血管枝肥大を増大させ, より正確なトポロジカル構造を持つ血管を産出する, 4つの3次元血管分節タスクの最先端の手法と比較して, 優れた, 競争的な結果が得られる。
関連論文リスト
- Deep Learning for Vascular Segmentation and Applications in Phase
Contrast Tomography Imaging [33.23991248643144]
本稿では,多様な臓器にまたがる機械学習技術の現状を概説する。
我々のゴールは、このトピックの基礎を提供し、新しい画像モダリティで血管セグメンテーションに適用するための堅牢なベースラインモデルを特定することである。
HiP CTは、1ボクセルあたり20mmという前例のない解像度で、完全な臓器の3Dイメージングを可能にする。
論文 参考訳(メタデータ) (2023-11-22T11:15:38Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Simultaneous segmentation and classification of the retinal arteries and
veins from color fundus images [6.027522272446452]
網膜血管の研究は多くの疾患のスクリーニングと診断の基本的な段階である。
眼底画像からの網膜A/Vの同時分画と分類のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-20T09:54:01Z) - Modeling and hexahedral meshing of cerebral arterial networks from
centerlines [0.0]
中心線に基づく表現は、小さな血管を持つ大きな血管ネットワークをモデル化するために広く用いられている。
中心線からCFDに適した構造を持つヘキサヘドラルメッシュを自動生成する手法を提案する。
我々は60の脳血管ネットワークのデータセットを網羅し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-01-20T16:30:17Z) - Edge-competing Pathological Liver Vessel Segmentation with Limited
Labels [61.38846803229023]
病理画像からのMVI検出に適したアルゴリズムはまだ存在しない。
本報告では, 血管, MVI, および腫瘍のグレードをラベルとした522枚のスライド画像を含む, 初めて病理組織学的肝画像データセットを収集する。
本稿では,2つのエッジセグメンテーション・ネットワークと2つのエッジセグメンテーション・ディミネータを含むエッジコンペティング・コンテナ・ネットワーク(EVS-Net)を提案する。
論文 参考訳(メタデータ) (2021-08-01T07:28:32Z) - Hierarchical Deep Network with Uncertainty-aware Semi-supervised
Learning for Vessel Segmentation [58.45470500617549]
本稿では,注目機構が血管全体に誘導される低コントラストキャピラリー領域を局在させる階層的なディープネットワークを提案する。
提案手法は,底部画像における網膜動脈/静脈の分画とCT画像における肝門/肝血管の分画のベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:55:43Z) - Objective-Dependent Uncertainty Driven Retinal Vessel Segmentation [5.926887379656135]
本稿では,血管分割を2つの目的に分割するディープ畳み込みニューラルネットワーク(CNN)を提案する。
具体的には、全体的正確な船舶分割と小さな船舶分割を2つの個人目的とみなす。
個々の目的を改善するため, (a) 小型船体接続性を高めるための船体重量マップに基づく補助的損失, (b) ローカライゼーションを改善するためのエンコーダ・デコーダアーキテクチャの強化を提案する。
論文 参考訳(メタデータ) (2021-04-17T14:17:09Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - Rethinking the Extraction and Interaction of Multi-Scale Features for
Vessel Segmentation [53.187152856583396]
網膜血管と主要動脈を2次元基底画像と3次元CTアンギオグラフィー(CTA)スキャンで分割する,PC-Netと呼ばれる新しいディープラーニングモデルを提案する。
PC-Netでは、ピラミッド圧縮励起(PSE)モジュールが各畳み込みブロックに空間情報を導入し、より効果的なマルチスケール特徴を抽出する能力を高めている。
論文 参考訳(メタデータ) (2020-10-09T08:22:54Z) - ROSE: A Retinal OCT-Angiography Vessel Segmentation Dataset and New
Model [41.444917622855606]
OCT-Aセグメンテーションデータセット(ROSE)は229枚のOCT-A画像からなり、中心線レベルまたは画素レベルで血管アノテーションを付加する。
次に,スプリットをベースとしたSCF-Net(Coarse-to-Fine vessel segmentation Network)を提案する。
SCF-Netでは、スプリットベース粗いセグメンテーション(SCS)モジュールを最初に導入し、スプリットベースリファインメント(SRN)モジュールを使用して形状・形状を最適化する。
論文 参考訳(メタデータ) (2020-07-10T06:54:19Z) - clDice -- A Novel Topology-Preserving Loss Function for Tubular
Structure Segmentation [57.20783326661043]
中心線Dice (short clDice) と呼ばれる新しい類似度尺度を導入する。
理論的には、clDiceは2次元および3次元のセグメンテーションにおけるホモトピー同値までのトポロジー保存を保証する。
我々は、船舶、道路、ニューロン(2Dと3D)を含む5つの公開データセットでソフトクライス損失をベンチマークした。
論文 参考訳(メタデータ) (2020-03-16T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。