論文の概要: Orientation and Context Entangled Network for Retinal Vessel
Segmentation
- arxiv url: http://arxiv.org/abs/2207.11396v1
- Date: Sat, 23 Jul 2022 02:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:23:54.054817
- Title: Orientation and Context Entangled Network for Retinal Vessel
Segmentation
- Title(参考訳): 網膜血管セグメンテーションにおける向きと文脈絡み合いネットワーク
- Authors: Xinxu Wei, Kaifu Yang, Danilo Bzdok and Yongjie Li
- Abstract要約: 船体セグメンテーションのための頑健なオリエンテーションとコンテキストエンタングルネットワーク(OCE-Net)を提案する。
OCE-Netは血管の複雑な向きとコンテキスト情報を抽出する能力を持っている。
提案手法は, 薄肉容器の連続性維持に有望な性能を実現する。
- 参考スコア(独自算出の注目度): 12.286630738859403
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most of the existing deep learning based methods for vessel segmentation
neglect two important aspects of retinal vessels, one is the orientation
information of vessels, and the other is the contextual information of the
whole fundus region. In this paper, we propose a robust Orientation and Context
Entangled Network (denoted as OCE-Net), which has the capability of extracting
complex orientation and context information of the blood vessels. To achieve
complex orientation aware, a Dynamic Complex Orientation Aware Convolution
(DCOA Conv) is proposed to extract complex vessels with multiple orientations
for improving the vessel continuity. To simultaneously capture the global
context information and emphasize the important local information, a Global and
Local Fusion Module (GLFM) is developed to simultaneously model the long-range
dependency of vessels and focus sufficient attention on local thin vessels. A
novel Orientation and Context Entangled Non-local (OCE-NL) module is proposed
to entangle the orientation and context information together. In addition, an
Unbalanced Attention Refining Module (UARM) is proposed to deal with the
unbalanced pixel numbers of background, thick and thin vessels. Extensive
experiments were performed on several commonly used datasets (DRIVE, STARE and
CHASEDB1) and some more challenging datasets (AV-WIDE, UoA-DR, RFMiD and UK
Biobank). The ablation study shows that the proposed method achieves promising
performance on maintaining the continuity of thin vessels and the comparative
experiments demonstrate that our OCE-Net can achieve state-of-the-art
performance on retinal vessel segmentation.
- Abstract(参考訳): 既存の深層学習に基づく血管分割法のほとんどは網膜血管の2つの重要な側面を無視しており、一つは血管の向き情報であり、もう一つは基底領域全体の文脈情報である。
本稿では,血管の複雑な配向とコンテキスト情報を抽出する機能を有する,頑健な配向とコンテキストエンタングルドネットワーク(OCE-Net)を提案する。
複雑な方向認識を実現するために,複数方向の複雑な容器を抽出して容器連続性を改善する動的複雑方向認識畳み込み(dcoa conv)を提案する。
グローバルコンテキスト情報の取り込みと重要局所情報強調を同時に行うため、グローバル・ローカル融合モジュール(glfm)を開発して、容器の長距離依存性をモデル化し、局所薄型容器に十分な注意を向ける。
オリエンテーションとコンテキスト情報を同時に絡めるために,新しいオリエンテーションとコンテキスト絡み合い非局所(oce-nl)モジュールを提案する。
さらに、背景、厚み、薄い容器のアンバランスな画素数を扱うために、アンバランスな注意精錬モジュール(UARM)が提案されている。
いくつかの一般的なデータセット(DRIVE、STARE、CHASEDB1)と、より困難なデータセット(AV-WIDE、UoA-DR、RFMiD、UK Biobank)で大規模な実験が行われた。
アブレーション実験により,提案手法は細血管の連続性維持に有望な性能を達成し,OCE-Netが網膜血管セグメンテーションの最先端性を達成することを示す。
関連論文リスト
- OVER-NAV: Elevating Iterative Vision-and-Language Navigation with Open-Vocabulary Detection and StructurEd Representation [96.46961207887722]
OVER-NAVは、現在のIVLN技術を超えることを目指している。
解釈されたナビゲーションデータを完全に活用するために、構造化された表現、コード化されたOmnigraphを導入する。
論文 参考訳(メタデータ) (2024-03-26T02:34:48Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - GAEI-UNet: Global Attention and Elastic Interaction U-Net for Vessel
Image Segmentation [0.0]
血管画像のセグメンテーションは、血管疾患の早期発見と治療を支援する医療診断において重要な役割を担っている。
本稿では,グローバルアテンションと弾性相互作用に基づく手法を組み合わせた新しいモデルGAEI-UNetを提案する。
ターゲット形状と予測形状のずれによって生じる力を捕捉することにより,本モデルでは,容器ネットワークの正確なトポロジを効果的に学習する。
論文 参考訳(メタデータ) (2023-08-16T13:10:32Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - ROIFormer: Semantic-Aware Region of Interest Transformer for Efficient
Self-Supervised Monocular Depth Estimation [6.923035780685481]
幾何認識表現強調のための効率的な局所適応アダプティブアテンション手法を提案する。
意味情報からの幾何学的手がかりを利用して局所適応的境界ボックスを学習し、教師なし特徴集合を導出する。
提案手法は, 自己教師型単分子深度推定タスクにおける新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2022-12-12T06:38:35Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Cross-modal Consensus Network for Weakly Supervised Temporal Action
Localization [74.34699679568818]
時間的行動局所化 (WS-TAL) は、ビデオレベルの分類的監督によって、ビデオ内のアクションインスタンスをローカライズすることを目的とした課題である。
この問題に対処するためのクロスモーダルコンセンサスネットワーク(CO2-Net)を提案する。
論文 参考訳(メタデータ) (2021-07-27T04:21:01Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Bidirectional Attention Network for Monocular Depth Estimation [18.381967717929264]
双方向注意ネットワーク(BANet)は単眼深度推定(MDE)のためのエンドツーエンドフレームワークである
フィードフォワード機能マップを利用した双方向アテンションモジュールを導入し、グローバルコンテキストを組み込んであいまいさを除去する。
提案手法は,メモリと計算の複雑さを低減した,最先端の単分子深度推定法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-09-01T23:14:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。