論文の概要: Localizing Anatomical Landmarks in Ocular Images using Zoom-In Attentive
Networks
- arxiv url: http://arxiv.org/abs/2210.02445v1
- Date: Sun, 25 Sep 2022 15:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 17:20:36.929202
- Title: Localizing Anatomical Landmarks in Ocular Images using Zoom-In Attentive
Networks
- Title(参考訳): ズームイン注意ネットワークを用いた眼画像における解剖学的ランドマークの局在
- Authors: Xiaofeng Lei, Shaohua Li, Xinxing Xu, Huazhu Fu, Yong Liu, Yih-Chung
Tham, Yangqin Feng, Mingrui Tan, Yanyu Xu, Jocelyn Hui Lin Goh, Rick Siow
Mong Goh, Ching-Yu Cheng
- Abstract要約: 眼画像の解剖学的ランドマーク化のためのズームイン注意ネットワーク(ZIAN)を提案する。
実験により,ZIANは有望な性能を達成し,最先端のローカライゼーション手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 34.05575237813503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localizing anatomical landmarks are important tasks in medical image
analysis. However, the landmarks to be localized often lack prominent visual
features. Their locations are elusive and easily confused with the background,
and thus precise localization highly depends on the context formed by their
surrounding areas. In addition, the required precision is usually higher than
segmentation and object detection tasks. Therefore, localization has its unique
challenges different from segmentation or detection. In this paper, we propose
a zoom-in attentive network (ZIAN) for anatomical landmark localization in
ocular images. First, a coarse-to-fine, or "zoom-in" strategy is utilized to
learn the contextualized features in different scales. Then, an attentive
fusion module is adopted to aggregate multi-scale features, which consists of
1) a co-attention network with a multiple regions-of-interest (ROIs) scheme
that learns complementary features from the multiple ROIs, 2) an
attention-based fusion module which integrates the multi-ROIs features and
non-ROI features. We evaluated ZIAN on two open challenge tasks, i.e., the
fovea localization in fundus images and scleral spur localization in AS-OCT
images. Experiments show that ZIAN achieves promising performances and
outperforms state-of-the-art localization methods. The source code and trained
models of ZIAN are available at
https://github.com/leixiaofeng-astar/OMIA9-ZIAN.
- Abstract(参考訳): 解剖学的ランドマークの局在は、医用画像解析において重要な課題である。
しかし、ローカライズされるランドマークは、しばしば目立った視覚的特徴を欠いている。
それらの位置は背景と容易に混同されやすいため、正確な位置決めは周囲の状況に大きく依存する。
加えて、必要な精度は、通常セグメンテーションやオブジェクト検出タスクよりも高い。
したがって、ローカライゼーションにはセグメンテーションや検出とは異なる固有の課題がある。
本稿では,眼画像の解剖学的ランドマーク化のためのズームイン注意ネットワーク(ZIAN)を提案する。
まず、粗大な「ズームイン」戦略を用いて、異なるスケールでコンテキスト化された特徴を学習する。
次に,マルチスケールの特徴を集約するために,注意型融合モジュールを採用する。
1)複数のROIから相補的特徴を学習する複数の関心領域(ROI)スキームを持つ協調型ネットワーク。
2) マルチROI機能と非ROI機能を統合する注目ベースの融合モジュール。
眼底画像における fovea 局在と as-oct 画像における scleral spur 局在の2つの課題についてzian を評価した。
実験により、ZIANは有望な性能を達成し、最先端のローカライゼーション手法より優れていることが示された。
ZIANのソースコードとトレーニングされたモデルはhttps://github.com/leixiaofeng-astar/OMIA9-ZIANで入手できる。
関連論文リスト
- MSA$^2$Net: Multi-scale Adaptive Attention-guided Network for Medical Image Segmentation [8.404273502720136]
MSA$2$Netは、スキップ接続を適切に設計した新しいディープセグメンテーションフレームワークである。
本稿では,空間的特徴を選択的に強調するために,MASAG(Multi-Scale Adaptive Space Attention Gate)を提案する。
MSA$2$Netは、最先端のSOTA(State-of-the-art)よりも優れています。
論文 参考訳(メタデータ) (2024-07-31T14:41:10Z) - SA2-Net: Scale-aware Attention Network for Microscopic Image
Segmentation [36.286876343282565]
顕微鏡画像のセグメンテーションは、特定の顕微鏡画像中の各ピクセルにセマンティックラベルを割り当てることが目的である。
マルチスケール特徴学習を利用して,顕微鏡画像内の多様な構造を扱う,注意誘導型SA2-Netを提案する。
論文 参考訳(メタデータ) (2023-09-28T17:58:05Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Retinal Structure Detection in OCTA Image via Voting-based Multi-task
Learning [27.637273690432608]
本稿では,Voting-based Adaptive Feature Fusion multi-task network (VAFF-Net) を提案する。
タスク固有の投票ゲートモジュールは、特定のタスクに対して2段階の異なる特徴を適応的に抽出し、融合するために提案される。
さらなる研究を容易にするため、ソースコードと評価ベンチマークを備えたデータセットの一部がパブリックアクセス用にリリースされた。
論文 参考訳(メタデータ) (2022-08-23T05:53:04Z) - Hierarchical Attention Fusion for Geo-Localization [7.544917072241684]
地理的ローカライゼーションのためのマルチスケール特徴を用いた階層型アテンション融合ネットワークを提案する。
畳み込みニューラルネットワーク(cnn)から階層的特徴マップを抽出し,抽出した特徴を画像表現に有機的に融合する。
学習は適応重みを用いて自己監督され,各階層レベルから特徴強調の注意を制御できる。
論文 参考訳(メタデータ) (2021-02-18T07:07:03Z) - Dual-Level Collaborative Transformer for Image Captioning [126.59298716978577]
2つの機能の補完的な利点を実現するために、新しいデュアルレベルコラボレーショントランス(DLCT)ネットワークを紹介します。
さらに,これらの2つの特徴の直接融合によって生じる意味的雑音に対処するために,局所性制約付きクロスアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2021-01-16T15:43:17Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - City-Scale Visual Place Recognition with Deep Local Features Based on
Multi-Scale Ordered VLAD Pooling [5.274399407597545]
本稿では,コンテンツに基づく画像検索に基づいて,都市規模で位置認識を行うシステムを提案する。
まず,視覚的位置認識の包括的分析を行い,その課題を概観する。
次に,画像表現ベクトルに空間情報を埋め込むために,畳み込み型ニューラルネットワークアクティベーションを用いた単純なプーリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-19T15:21:59Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。