論文の概要: MDFI-Net: Multiscale Differential Feature Interaction Network for Accurate Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2410.15444v1
- Date: Sun, 20 Oct 2024 16:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:39.966762
- Title: MDFI-Net: Multiscale Differential Feature Interaction Network for Accurate Retinal Vessel Segmentation
- Title(参考訳): MDFI-Net:精度の高い網膜血管セグメンテーションのためのマルチスケール微分特徴相互作用ネットワーク
- Authors: Yiwang Dong, Xiangyu Deng,
- Abstract要約: 本稿では,MDFI-Net という DPCN に基づく機能拡張型インタラクションネットワークを提案する。
提案したMDFI-Netは,公開データセットの最先端手法よりもセグメンテーション性能が優れている。
- 参考スコア(独自算出の注目度): 3.152646316470194
- License:
- Abstract: The accurate segmentation of retinal vessels in fundus images is a great challenge in medical image segmentation tasks due to their highly complex structure from other organs.Currently, deep-learning based methods for retinal cessel segmentation achieved suboptimal outcoms,since vessels with indistinct features are prone to being overlooked in deeper layers of the network. Additionally, the abundance of redundant information in the background poses significant interference to feature extraction, thus increasing the segmentation difficulty. To address this issue, this paper proposes a feature-enhanced interaction network based on DPCN, named MDFI-Net.Specifically, we design a feature enhancement structure, the Deformable-convolutional Pulse Coupling Network (DPCN), to provide an enhanced feature iteration sequence to the segmentation network in a simple and efficient manner. Subsequently, these features will interact within the segmentation network.Extensive experiments were conducted on publicly available retinal vessel segmentation datasets to validate the effectiveness of our network structure. Experimental results of our algorithm show that the detection accuracy of the retinal blood vessel achieves 97.91%, 97.97% and 98.16% across all datasets. Finally, plentiful experimental results also prove that the proposed MDFI-Net achieves segmentation performance superior to state-of-the-art methods on public datasets.
- Abstract(参考訳): 眼底画像における網膜血管の正確なセグメンテーションは、他の臓器からの高度に複雑な構造のため、医用画像のセグメンテーションタスクにおいて大きな課題である。
さらに、背景にある冗長な情報の豊富さは特徴抽出に重大な干渉を引き起こすため、セグメンテーションの難しさが増大する。
本稿では,MDFI-Netと命名されたDPCNに基づく機能拡張型インタラクションネットワークを提案する。特に,機能拡張構造であるデフォルマブル・畳み込みパルス結合ネットワーク(DPCN)を設計し,セグメンテーションネットワークに簡易かつ効率的に機能反復シーケンスを提供する。
その後、これらの特徴はセグメンテーションネットワーク内で相互作用し、我々のネットワーク構造の有効性を検証するために、利用可能な網膜血管セグメンテーションデータセットに対して大規模な実験を行った。
実験の結果,網膜血管の検出精度は全データセットで97.91%,97.97%,98.16%であった。
最後に,提案したMDFI-Netは,公開データセットの最先端手法よりもセグメンテーション性能が優れていることを示す実験結果も豊富である。
関連論文リスト
- DmADs-Net: Dense multiscale attention and depth-supervised network for medical image segmentation [10.85494240952418]
我々はDmAD-Net(Multiscale Attention and Depth-Supervised Network)を開発した。
異なる深さで機能抽出にResNetを使用し、マルチスケールの畳み込み機能注意ブロックを作成します。
ローカル・フィーチャー・アテンション・ブロックは、高レベルのセマンティック情報に対するローカル・フィーチャー・アテンションを強化するために作成される。
フィーチャーフュージョンフェーズでは、異なるセマンティック情報の融合を強化するために、フィーチャーリファインメントとフュージョンブロックが作成される。
論文 参考訳(メタデータ) (2024-05-01T12:15:58Z) - Feature Enhancer Segmentation Network (FES-Net) for Vessel Segmentation [19.455350961592742]
本稿では,画像強調ステップを必要とせずに正確な画素分割を実現する機能拡張セグメンテーションネットワーク(FES-Net)を提案する。
FES-Netは入力画像を直接処理し、ダウンサンプリング中に4つのプロンプト畳み込みブロック(PCB)を利用する。
DRIVE, STARE, CHASE, HRFの4つの公開技術データセット上でのFES-Netの性能を評価する。
論文 参考訳(メタデータ) (2023-09-07T07:46:46Z) - GAEI-UNet: Global Attention and Elastic Interaction U-Net for Vessel
Image Segmentation [0.0]
血管画像のセグメンテーションは、血管疾患の早期発見と治療を支援する医療診断において重要な役割を担っている。
本稿では,グローバルアテンションと弾性相互作用に基づく手法を組み合わせた新しいモデルGAEI-UNetを提案する。
ターゲット形状と予測形状のずれによって生じる力を捕捉することにより,本モデルでは,容器ネットワークの正確なトポロジを効果的に学習する。
論文 参考訳(メタデータ) (2023-08-16T13:10:32Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Contextual Information Enhanced Convolutional Neural Networks for
Retinal Vessel Segmentation in Color Fundus Images [0.0]
自動網膜血管セグメンテーションシステムは、臨床診断及び眼科研究を効果的に促進することができる。
ディープラーニングベースの手法が提案され、いくつかのカスタマイズされたモジュールが有名なエンコーダデコーダアーキテクチャU-netに統合されている。
その結果,提案手法は先行技術よりも優れ,感性/リコール,F1スコア,MCCの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-03-25T06:10:47Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Boosting Connectivity in Retinal Vessel Segmentation via a Recursive
Semantics-Guided Network [23.936946593048987]
U字型ネットワークはセマンティクス誘導モジュールを導入して拡張され、拡張されたセマンティクス情報を浅い層に統合し、ネットワークがより強力な機能を探索できるようにする。
慎重に設計されたセマンティクス誘導ネットワークは、いくつかの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2020-04-24T09:18:04Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。