論文の概要: Fundus vascular image segmentation based on multiple attention
mechanisms and deep learning
- arxiv url: http://arxiv.org/abs/2305.03617v2
- Date: Wed, 14 Jun 2023 10:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 00:58:05.596402
- Title: Fundus vascular image segmentation based on multiple attention
mechanisms and deep learning
- Title(参考訳): 複数の注意機構と深層学習に基づく底部血管像のセグメンテーション
- Authors: Yuanyuan Peng, Pengpeng Luan, Zixu Zhang
- Abstract要約: 網膜基底画像の血管を正確に検出するために,複数の注意機構と深層学習に基づく有用なアプローチを提案する。
シーン情報補償の喪失に関する文脈情報を強化するために、注意融合機構を用いる。
スキップ接続に独自の空間的注意機構を導入し、冗長情報をフィルタリングする。
DropOutレイヤは、いくつかのニューロンをランダムに破棄するために使用され、ディープラーニングネットワークの過度な適合を防止し、その一般化性能を向上させる。
- 参考スコア(独自算出の注目度): 1.3295074739915493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately segmenting blood vessels in retinal fundus images is crucial in
the early screening, diagnosing, and evaluating some ocular diseases, yet it
poses a nontrivial uncertainty for the segmentation task due to various factors
such as significant light variations, uneven curvilinear structures, and
non-uniform contrast. As a result, a useful approach based on multiple
attention mechanisms and deep learning is proposed to accurately detect blood
vessels in retinal fundus images. To enrich contextual information for the loss
of scene information compensation, an attention fusion mechanism that combines
the channel attention with spatial attention mechanisms constructed by
Transformer is employed to extract various features of blood vessels from
retinal fundus images in both spatial and channel dimensions. Subsequently, a
unique spatial attention mechanism is introduced in the skip connection to
filter out redundant information and noise from low-level features, thus
enabling better integration with high-level features. In addition, a DropOut
layer is employed to randomly discard some neurons, which can prevent
overfitting of the deep learning network and improve its generalization
performance.
- Abstract(参考訳): 網膜眼底画像中の血管を正確に分割することは、眼疾患の早期スクリーニング、診断、評価において重要であるが、重要な光変化、不均一な曲率構造、非一様コントラストなどの様々な要因により、セグメンテーションタスクに不明瞭な不確実性をもたらす。
その結果,網膜基底画像の血管を正確に検出するために,複数の注意機構と深部学習に基づく有用なアプローチが提案された。
シーン情報補償の喪失に関する文脈情報を強化するため、トランスフォーマーによって構築された空間的注意機構とチャネル注意を結合した注意融合機構を用いて、空間的およびチャネル的な寸法の網膜基底画像から血管の様々な特徴を抽出する。
その後、スキップ接続で低レベル機能から冗長な情報やノイズを除去し、高レベル機能との統合性を向上させるために、ユニークな空間的注意機構が導入される。
さらに、ドロップアウト層を使用して、いくつかのニューロンをランダムに破棄することで、ディープラーニングネットワークの過剰フィットを防止し、その一般化性能を向上させることができる。
関連論文リスト
- Region Guided Attention Network for Retinal Vessel Segmentation [19.587662416331682]
本稿では,領域誘導型アテンションを用いたエンコーダデコーダ機構に基づく軽量網膜血管セグメンテーションネットワークを提案する。
Dice Losは偽陽性と偽陰性を等しく解析し、モデルがより正確なセグメンテーションを生成するように促す。
ベンチマークデータセットの実験では、最先端の手法と比較して、パフォーマンス(0.8285, 0.8098, 0.9677, 0.8166リコール、精度、精度、F1スコア)が向上した。
論文 参考訳(メタデータ) (2024-07-22T00:08:18Z) - FS-Net: Full Scale Network and Adaptive Threshold for Improving
Extraction of Micro-Retinal Vessel Structures [4.776514178760067]
本稿では,エンコーダ・デコーダニューラルネットワークアーキテクチャに基づく大規模マイクロ容器抽出機構を提案する。
提案手法はDRIVE,CHASE-DB1,STAREデータセットを用いて評価されている。
論文 参考訳(メタデータ) (2023-11-14T10:32:17Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - DualStreamFoveaNet: A Dual Stream Fusion Architecture with Anatomical Awareness for Robust Fovea Localization [6.278444803136043]
マルチキュー核融合のためのDualStreamFoveaNet (DSFN) と呼ばれる新しいトランスフォーマーアーキテクチャを提案する。
このアーキテクチャは、網膜と血管の分布を用いた長距離接続とグローバルな特徴をはっきりと組み込んで、堅牢な葉の局在を図っている。
DSFNは、正常な網膜像と疾患のある網膜像の両方においてより堅牢であり、クロスデータセット実験においてキャパシティの一般化がより優れていることを実証する。
論文 参考訳(メタデータ) (2023-02-14T10:40:20Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Fuzzy Attention Neural Network to Tackle Discontinuity in Airway
Segmentation [67.19443246236048]
気道セグメンテーションは肺疾患の検査、診断、予後に重要である。
いくつかの小型の気道支線(気管支や終端など)は自動セグメンテーションの難しさを著しく増す。
本稿では,新しいファジィアテンションニューラルネットワークと包括的損失関数を備える,気道セグメンテーションの効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-09-05T16:38:13Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。