論文の概要: Novel Extraction of Discriminative Fine-Grained Feature to Improve Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2505.03896v1
- Date: Tue, 06 May 2025 18:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.892091
- Title: Novel Extraction of Discriminative Fine-Grained Feature to Improve Retinal Vessel Segmentation
- Title(参考訳): 網膜血管セグメンテーション改善のための識別的細粒化特徴の新規抽出
- Authors: Shuang Zeng, Chee Hong Lee, Micky C Nnamdi, Wenqi Shi, J Ben Tamo, Lei Zhu, Hangzhou He, Xinliang Zhang, Qian Chen, May D. Wang, Yanye Lu, Qiushi Ren,
- Abstract要約: 本稿では,AttUKANという新しいU字型コルモゴロフ・アルノルドネットワークを提案する。
我々は、モデル感度を高めるために、コルモゴロフ・アルノルドネットワークにアテンションゲートを実装した。
我々はまた、提案したAttUKANを監督するために、新しいラベル誘導のPixel-wise Contrastive Lossを設計する。
- 参考スコア(独自算出の注目度): 18.968955885340797
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retinal vessel segmentation is a vital early detection method for several severe ocular diseases. Despite significant progress in retinal vessel segmentation with the advancement of Neural Networks, there are still challenges to overcome. Specifically, retinal vessel segmentation aims to predict the class label for every pixel within a fundus image, with a primary focus on intra-image discrimination, making it vital for models to extract more discriminative features. Nevertheless, existing methods primarily focus on minimizing the difference between the output from the decoder and the label, but ignore fully using feature-level fine-grained representations from the encoder. To address these issues, we propose a novel Attention U-shaped Kolmogorov-Arnold Network named AttUKAN along with a novel Label-guided Pixel-wise Contrastive Loss for retinal vessel segmentation. Specifically, we implement Attention Gates into Kolmogorov-Arnold Networks to enhance model sensitivity by suppressing irrelevant feature activations and model interpretability by non-linear modeling of KAN blocks. Additionally, we also design a novel Label-guided Pixel-wise Contrastive Loss to supervise our proposed AttUKAN to extract more discriminative features by distinguishing between foreground vessel-pixel pairs and background pairs. Experiments are conducted across four public datasets including DRIVE, STARE, CHASE_DB1, HRF and our private dataset. AttUKAN achieves F1 scores of 82.50%, 81.14%, 81.34%, 80.21% and 80.09%, along with MIoU scores of 70.24%, 68.64%, 68.59%, 67.21% and 66.94% in the above datasets, which are the highest compared to 11 networks for retinal vessel segmentation. Quantitative and qualitative results show that our AttUKAN achieves state-of-the-art performance and outperforms existing retinal vessel segmentation methods. Our code will be available at https://github.com/stevezs315/AttUKAN.
- Abstract(参考訳): 網膜血管セグメンテーションは、いくつかの重度の眼疾患において重要な早期検出法である。
ニューラルネットワークの進歩による網膜血管セグメンテーションの大幅な進歩にもかかわらず、克服すべき課題は依然として残っている。
具体的には、網膜血管のセグメンテーションは、基底画像内の各ピクセルのクラスラベルを予測することを目的としており、主に画像内識別に焦点を当てており、モデルがより識別的な特徴を抽出することが不可欠である。
それにもかかわらず、既存の手法は主にデコーダとラベルの出力の差を最小限に抑えることに重点を置いているが、エンコーダの機能レベルのきめ細かい表現を完全に無視している。
これらの課題に対処するため,本研究では,網膜血管セグメンテーションのための新規なラベル誘導型Pixel-wise Contrastive Lossとともに,AttUKANというU字型コルモゴロフ・アルノルドネットワークを提案する。
具体的には,Kanブロックの非線形モデリングによる不適切な特徴アクティベーションとモデル解釈性を抑えることにより,モデル感度を高めるために,Attention GatesをKolmogorov-Arnold Networksに実装する。
さらに,提案したAttUKANを監督し,前景の画素対と背景のペアを区別することで,より差別的な特徴を抽出する,ラベル誘導のPixel-wise Contrastive Lossも設計した。
DRIVE、STARE、CHASE_DB1、HRF、我々のプライベートデータセットを含む4つのパブリックデータセットで実験を行った。
AttUKANのF1スコアは82.50%、81.14%、81.34%、80.21%、80.09%、MIOUスコアは70.24%、68.64%、68.59%、67.21%、66.94%で、網膜血管セグメンテーションの11ネットワークと比較すると最高である。
定量的および定性的な結果から、AttUKANは最先端の性能を達成し、既存の網膜血管セグメンテーション法より優れていることが示された。
私たちのコードはhttps://github.com/stevezs315/AttUKANで公開されます。
関連論文リスト
- Region Guided Attention Network for Retinal Vessel Segmentation [19.587662416331682]
本稿では,領域誘導型アテンションを用いたエンコーダデコーダ機構に基づく軽量網膜血管セグメンテーションネットワークを提案する。
Dice Losは偽陽性と偽陰性を等しく解析し、モデルがより正確なセグメンテーションを生成するように促す。
ベンチマークデータセットの実験では、最先端の手法と比較して、パフォーマンス(0.8285, 0.8098, 0.9677, 0.8166リコール、精度、精度、F1スコア)が向上した。
論文 参考訳(メタデータ) (2024-07-22T00:08:18Z) - FS-Net: Full Scale Network and Adaptive Threshold for Improving Extraction of Micro-Retinal Vessel Structures [4.507779218329283]
網膜血管の分節は独特の課題を呈する。
最近のニューラルネットワークアプローチは、ローカルとグローバルプロパティのバランスをとるのに苦労している。
エンコーダ・デコーダニューラルネットワークアーキテクチャに基づく包括的マイクロ容器抽出機構を提案する。
論文 参考訳(メタデータ) (2023-11-14T10:32:17Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。