論文の概要: Objective-Dependent Uncertainty Driven Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2104.08554v1
- Date: Sat, 17 Apr 2021 14:17:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 09:34:44.876418
- Title: Objective-Dependent Uncertainty Driven Retinal Vessel Segmentation
- Title(参考訳): 目的依存不確かさ駆動網膜血管セグメンテーション
- Authors: Suraj Mishra, Danny Z. Chen, X. Sharon Hu
- Abstract要約: 本稿では,血管分割を2つの目的に分割するディープ畳み込みニューラルネットワーク(CNN)を提案する。
具体的には、全体的正確な船舶分割と小さな船舶分割を2つの個人目的とみなす。
個々の目的を改善するため, (a) 小型船体接続性を高めるための船体重量マップに基づく補助的損失, (b) ローカライゼーションを改善するためのエンコーダ・デコーダアーキテクチャの強化を提案する。
- 参考スコア(独自算出の注目度): 5.926887379656135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From diagnosing neovascular diseases to detecting white matter lesions,
accurate tiny vessel segmentation in fundus images is critical. Promising
results for accurate vessel segmentation have been known. However, their
effectiveness in segmenting tiny vessels is still limited. In this paper, we
study retinal vessel segmentation by incorporating tiny vessel segmentation
into our framework for the overall accurate vessel segmentation. To achieve
this, we propose a new deep convolutional neural network (CNN) which divides
vessel segmentation into two separate objectives. Specifically, we consider the
overall accurate vessel segmentation and tiny vessel segmentation as two
individual objectives. Then, by exploiting the objective-dependent
(homoscedastic) uncertainty, we enable the network to learn both objectives
simultaneously. Further, to improve the individual objectives, we propose: (a)
a vessel weight map based auxiliary loss for enhancing tiny vessel connectivity
(i.e., improving tiny vessel segmentation), and (b) an enhanced encoder-decoder
architecture for improved localization (i.e., for accurate vessel
segmentation). Using 3 public retinal vessel segmentation datasets (CHASE_DB1,
DRIVE, and STARE), we verify the superiority of our proposed framework in
segmenting tiny vessels (8.3% average improvement in sensitivity) while
achieving better area under the receiver operating characteristic curve (AUC)
compared to state-of-the-art methods.
- Abstract(参考訳): 血管新生疾患の診断から白質病変の発見に至るまで,底部画像の細血管分割は極めて重要である。
正確な血管分割の予測結果が知られている。
しかし、小さな容器を分割する効果はまだ限られている。
本稿では,微小血管分割を我々の枠組みに組み込んだ網膜血管分割について検討した。
そこで本研究では,血管分割を2つの目的に分割するディープ畳み込みニューラルネットワーク(CNN)を提案する。
具体的には, 血管の細分化と小血管の細分化を2つの目的と捉えた。
そして,目的依存的不確実性(homoscedastic)を生かして,ネットワークが両方の目的を同時に学習できるようにする。
さらに, 個々の目的を改善するために, (a) 小型容器接続性向上のための補助損失(すなわち, 小型容器分割の改善) および (b) 局在性向上のためのエンコーダ・デコーダ拡張アーキテクチャ (すなわち, 正確な容器分割のための) を提案する。
3つのパブリック網膜血管セグメンテーションデータセット(CHASE_DB1,DRIVE,STARE)を用いて,微小血管のセグメンテーションにおけるフレームワークの優位性を検証した。
関連論文リスト
- Region Guided Attention Network for Retinal Vessel Segmentation [19.587662416331682]
本稿では,領域誘導型アテンションを用いたエンコーダデコーダ機構に基づく軽量網膜血管セグメンテーションネットワークを提案する。
Dice Losは偽陽性と偽陰性を等しく解析し、モデルがより正確なセグメンテーションを生成するように促す。
ベンチマークデータセットの実験では、最先端の手法と比較して、パフォーマンス(0.8285, 0.8098, 0.9677, 0.8166リコール、精度、精度、F1スコア)が向上した。
論文 参考訳(メタデータ) (2024-07-22T00:08:18Z) - FS-Net: Full Scale Network and Adaptive Threshold for Improving
Extraction of Micro-Retinal Vessel Structures [4.776514178760067]
本稿では,エンコーダ・デコーダニューラルネットワークアーキテクチャに基づく大規模マイクロ容器抽出機構を提案する。
提案手法はDRIVE,CHASE-DB1,STAREデータセットを用いて評価されている。
論文 参考訳(メタデータ) (2023-11-14T10:32:17Z) - GAEI-UNet: Global Attention and Elastic Interaction U-Net for Vessel
Image Segmentation [0.0]
血管画像のセグメンテーションは、血管疾患の早期発見と治療を支援する医療診断において重要な役割を担っている。
本稿では,グローバルアテンションと弾性相互作用に基づく手法を組み合わせた新しいモデルGAEI-UNetを提案する。
ターゲット形状と予測形状のずれによって生じる力を捕捉することにより,本モデルでは,容器ネットワークの正確なトポロジを効果的に学習する。
論文 参考訳(メタデータ) (2023-08-16T13:10:32Z) - Morphology Edge Attention Network and Optimal Geometric Matching
Connection model for vascular segmentation [3.6368619769561668]
本稿では,容器状構造物のセグメンテーションのための新しい形態的エッジアテンションネットワーク(MEA-Net)を提案する。
また、壊れた容器セグメントを接続するための最適幾何マッチング接続(OGMC)モデルを提案する。
本手法は,3次元血管分割作業の4つのデータセットにおける最先端手法と比較して,優れた,あるいは競争的な結果が得られる。
論文 参考訳(メタデータ) (2023-06-02T01:52:35Z) - Edge-competing Pathological Liver Vessel Segmentation with Limited
Labels [61.38846803229023]
病理画像からのMVI検出に適したアルゴリズムはまだ存在しない。
本報告では, 血管, MVI, および腫瘍のグレードをラベルとした522枚のスライド画像を含む, 初めて病理組織学的肝画像データセットを収集する。
本稿では,2つのエッジセグメンテーション・ネットワークと2つのエッジセグメンテーション・ディミネータを含むエッジコンペティング・コンテナ・ネットワーク(EVS-Net)を提案する。
論文 参考訳(メタデータ) (2021-08-01T07:28:32Z) - Hierarchical Deep Network with Uncertainty-aware Semi-supervised
Learning for Vessel Segmentation [58.45470500617549]
本稿では,注目機構が血管全体に誘導される低コントラストキャピラリー領域を局在させる階層的なディープネットワークを提案する。
提案手法は,底部画像における網膜動脈/静脈の分画とCT画像における肝門/肝血管の分画のベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:55:43Z) - RV-GAN : Retinal Vessel Segmentation from Fundus Images using
Multi-scale Generative Adversarial Networks [0.0]
RVGANは、正確な網膜血管分割のための新しいマルチスケール再生アーキテクチャです。
2つのジェネレータと2つのマルチスケールオートエンコーダベースの判別器を用いて,マイクロセルの局在とセグメンテーションを改善する。
論文 参考訳(メタデータ) (2021-01-03T01:04:49Z) - Rethinking the Extraction and Interaction of Multi-Scale Features for
Vessel Segmentation [53.187152856583396]
網膜血管と主要動脈を2次元基底画像と3次元CTアンギオグラフィー(CTA)スキャンで分割する,PC-Netと呼ばれる新しいディープラーニングモデルを提案する。
PC-Netでは、ピラミッド圧縮励起(PSE)モジュールが各畳み込みブロックに空間情報を導入し、より効果的なマルチスケール特徴を抽出する能力を高めている。
論文 参考訳(メタデータ) (2020-10-09T08:22:54Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z) - clDice -- A Novel Topology-Preserving Loss Function for Tubular
Structure Segmentation [57.20783326661043]
中心線Dice (short clDice) と呼ばれる新しい類似度尺度を導入する。
理論的には、clDiceは2次元および3次元のセグメンテーションにおけるホモトピー同値までのトポロジー保存を保証する。
我々は、船舶、道路、ニューロン(2Dと3D)を含む5つの公開データセットでソフトクライス損失をベンチマークした。
論文 参考訳(メタデータ) (2020-03-16T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。