論文の概要: TransUNext: towards a more advanced U-shaped framework for automatic vessel segmentation in the fundus image
- arxiv url: http://arxiv.org/abs/2411.02724v1
- Date: Tue, 05 Nov 2024 01:44:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:59:00.535597
- Title: TransUNext: towards a more advanced U-shaped framework for automatic vessel segmentation in the fundus image
- Title(参考訳): TransUNext: 基底画像における自動血管分割のためのより高度なU字型フレームワーク
- Authors: Xiang Li, Mingsi Liu, Lixin Duan,
- Abstract要約: 本稿では,ハイブリッドトランスフォーマーとCNN: TransUNextのための,より高度なU字型アーキテクチャを提案する。
Global Multi-Scale Fusion (GMSF)モジュールはさらに、スキップ接続のアップグレード、高レベルセマンティクスと低レベル詳細情報の融合、高レベルセマンティクスと低レベルセマンティクスの相違を取り除くために導入された。
- 参考スコア(独自算出の注目度): 19.16680702780529
- License:
- Abstract: Purpose: Automatic and accurate segmentation of fundus vessel images has become an essential prerequisite for computer-aided diagnosis of ophthalmic diseases such as diabetes mellitus. The task of high-precision retinal vessel segmentation still faces difficulties due to the low contrast between the branch ends of retinal vessels and the background, the long and thin vessel span, and the variable morphology of the optic disc and optic cup in fundus vessel images. Methods: We propose a more advanced U-shaped architecture for a hybrid Transformer and CNN: TransUNext, which integrates an Efficient Self-attention Mechanism into the encoder and decoder of U-Net to capture both local features and global dependencies with minimal computational overhead. Meanwhile, the Global Multi-Scale Fusion (GMSF) module is further introduced to upgrade skip-connections, fuse high-level semantic and low-level detailed information, and eliminate high- and low-level semantic differences. Inspired by ConvNeXt, TransNeXt Block is designed to optimize the computational complexity of each base block in U-Net and avoid the information loss caused by the compressed dimension when the information is converted between the feature spaces of different dimensions. Results: We evaluated the proposed method on four public datasets DRIVE, STARE, CHASE-DB1, and HRF. In the experimental results, the AUC (area under the ROC curve) values were 0.9867, 0.9869, 0.9910, and 0.9887, which exceeded the other state-of-the-art.
- Abstract(参考訳): 目的: 糖尿病などの眼科疾患のコンピュータ診断において, 底部画像の自動的, 正確な分割が必須条件となっている。
網膜血管の分岐端と背景との低コントラスト,長くて細い血管スパン,眼底血管画像における眼円板と眼球カップの変動形態など,高精度網膜血管セグメンテーションの課題はいまだに困難に直面している。
方法: トランスフォーマーとCNNのためのより高度なU字型アーキテクチャを提案する: TransUNextは、効率的な自己保持機構をエンコーダとU-Netのデコーダに統合し、ローカル特徴とグローバル依存関係の両方を最小の計算オーバーヘッドでキャプチャする。
一方、Global Multi-Scale Fusion (GMSF)モジュールは、スキップ接続のアップグレード、高レベルセマンティックと低レベル詳細情報を融合し、高レベルセマンティックと低レベルセマンティックの差異を取り除くためにさらに導入された。
ConvNeXtにインスパイアされたTransNeXt Blockは、U-Netの各ベースブロックの計算複雑性を最適化し、異なる次元の特徴空間間で情報が変換されるときに圧縮された次元に起因する情報損失を回避するように設計されている。
結果: 提案手法をDRIVE, STARE, CHASE-DB1, HRFの4つの公開データセットで評価した。
実験の結果、AUC値は0.9867、0.9869、0.9910、0.9887であり、これは他の最先端よりも高かった。
関連論文リスト
- TBConvL-Net: A Hybrid Deep Learning Architecture for Robust Medical Image Segmentation [6.013821375459473]
医用画像セグメンテーションのための新しいディープラーニングアーキテクチャを提案する。
提案モデルでは,10の公開データセット上でのテクニックの現状に対して,一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-09-05T09:14:03Z) - Enhancing Retinal Vascular Structure Segmentation in Images With a Novel
Design Two-Path Interactive Fusion Module Model [6.392575673488379]
網膜血管セグメンテーションの精度を高めるために設計されたSwin-Res-Netについて紹介する。
Swin-Res-Netは、パーティショニングに変位のあるシフトウィンドウを使用するSwin Transformerを使用している。
提案したアーキテクチャは,他の公開されたモデルに適合するか,あるいは超越するかという,優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-03-03T01:36:11Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - DualStreamFoveaNet: A Dual Stream Fusion Architecture with Anatomical Awareness for Robust Fovea Localization [6.278444803136043]
マルチキュー核融合のためのDualStreamFoveaNet (DSFN) と呼ばれる新しいトランスフォーマーアーキテクチャを提案する。
このアーキテクチャは、網膜と血管の分布を用いた長距離接続とグローバルな特徴をはっきりと組み込んで、堅牢な葉の局在を図っている。
DSFNは、正常な網膜像と疾患のある網膜像の両方においてより堅牢であり、クロスデータセット実験においてキャパシティの一般化がより優れていることを実証する。
論文 参考訳(メタデータ) (2023-02-14T10:40:20Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - RetiFluidNet: A Self-Adaptive and Multi-Attention Deep Convolutional
Network for Retinal OCT Fluid Segmentation [3.57686754209902]
OCTガイド下治療には網膜液の定量化が必要である。
RetiFluidNetと呼ばれる新しい畳み込みニューラルアーキテクチャは、多クラス網膜流体セグメンテーションのために提案されている。
モデルは、テクスチャ、コンテキスト、エッジといった特徴の階層的な表現学習の恩恵を受ける。
論文 参考訳(メタデータ) (2022-09-26T07:18:00Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Rethinking the Extraction and Interaction of Multi-Scale Features for
Vessel Segmentation [53.187152856583396]
網膜血管と主要動脈を2次元基底画像と3次元CTアンギオグラフィー(CTA)スキャンで分割する,PC-Netと呼ばれる新しいディープラーニングモデルを提案する。
PC-Netでは、ピラミッド圧縮励起(PSE)モジュールが各畳み込みブロックに空間情報を導入し、より効果的なマルチスケール特徴を抽出する能力を高めている。
論文 参考訳(メタデータ) (2020-10-09T08:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。