論文の概要: ODFormer: Semantic Fundus Image Segmentation Using Transformer for Optic Nerve Head Detection
- arxiv url: http://arxiv.org/abs/2405.09552v2
- Date: Sun, 2 Jun 2024 10:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 14:39:00.610088
- Title: ODFormer: Semantic Fundus Image Segmentation Using Transformer for Optic Nerve Head Detection
- Title(参考訳): ODFormer:視神経頭部検出のための Transformer を用いた意味的基底画像分割
- Authors: Jiayi Wang, Yi-An Mao, Xiaoyu Ma, Sicen Guo, Yuting Shao, Xiao Lv, Wenting Han, Mark Christopher, Linda M. Zangwill, Yanlong Bi, Rui Fan,
- Abstract要約: 眼科領域における視神経頭(ONH)検出は,長年にわたり重要な研究領域である。
本稿では,ネットワーク設計,データセットの公開,包括的なベンチマークの確立という,3つの重要な側面からコントリビューションを行う。
新しく開発されたONH検出ネットワークはODFormerと呼ばれ、Swin Transformerアーキテクチャに基づいており、2つの新しいコンポーネントが組み込まれている。
われわれは、TongjiU-DRODと呼ばれる大規模なデータセットを公開し、2種類のカメラで撮影した、参加者ごとに多解像度のファンドイメージを提供する。
- 参考スコア(独自算出の注目度): 11.858663369026278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optic nerve head (ONH) detection has been a crucial area of study in ophthalmology for years. However, the significant discrepancy between fundus image datasets, each generated using a single type of fundus camera, poses challenges to the generalizability of ONH detection approaches developed based on semantic segmentation networks. Despite the numerous recent advancements in general-purpose semantic segmentation methods using convolutional neural networks (CNNs) and Transformers, there is currently a lack of benchmarks for these state-of-the-art (SoTA) networks specifically trained for ONH detection. Therefore, in this article, we make contributions from three key aspects: network design, the publication of a dataset, and the establishment of a comprehensive benchmark. Our newly developed ONH detection network, referred to as ODFormer, is based upon the Swin Transformer architecture and incorporates two novel components: a multi-scale context aggregator and a lightweight bidirectional feature recalibrator. Our published large-scale dataset, known as TongjiU-DROD, provides multi-resolution fundus images for each participant, captured using two distinct types of cameras. Our established benchmark involves three datasets: DRIONS-DB, DRISHTI-GS1, and TongjiU-DROD, created by researchers from different countries and containing fundus images captured from participants of diverse races and ages. Extensive experimental results demonstrate that our proposed ODFormer outperforms other state-of-the-art (SoTA) networks in terms of performance and generalizability. Our dataset and source code are publicly available at mias.group/ODFormer.
- Abstract(参考訳): 眼科領域における視神経頭(ONH)検出は,長年にわたり重要な研究領域である。
しかし,1種類の眼底カメラを用いて生成した眼底画像データセット間の大きな差は,意味的セグメンテーションネットワークに基づいて開発されたONH検出手法の一般化に困難をもたらす。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーを用いた汎用セマンティックセグメンテーション手法の進歩にもかかわらず、現在、ONH検出のために特別に訓練されたこれらの最先端(SoTA)ネットワークのベンチマークが不足している。
そこで本稿では,ネットワーク設計,データセットの公開,包括的なベンチマークの確立という,3つの重要な側面からコントリビューションを行う。
新しく開発されたONH検出ネットワークはODFormerと呼ばれ、Swin Transformerアーキテクチャに基づいており、マルチスケールコンテキストアグリゲータと軽量な双方向機能リキャリブレータという2つの新しいコンポーネントを組み込んでいる。
われわれは、TongjiU-DRODと呼ばれる大規模なデータセットを公開し、2種類のカメラで撮影した、参加者ごとに多解像度のファンドイメージを提供する。
確立されたベンチマークでは,各国の研究者が作成したDRIONS-DB,DRISHTI-GS1,TongjiU-DRODの3つのデータセットを収録した。
提案するODFormerは,性能および一般化性の観点から,他のSoTAネットワークよりも優れた性能を示した。
私たちのデータセットとソースコードは、mias.group/ODFormerで公開されています。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Generalizing Medical Image Representations via Quaternion Wavelet
Networks [10.745453748351219]
医用画像から健全な特徴を抽出できる,新しい,一般化可能な,データに依存しないフレームワークを提案する。
提案する4元ウェーブレットネットワーク(quaVE)は,既存の医用画像解析や合成作業と容易に統合できる。
論文 参考訳(メタデータ) (2023-10-16T09:34:06Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - A Deep Neural Architecture for Harmonizing 3-D Input Data Analysis and
Decision Making in Medical Imaging [3.6170587429082195]
本稿では、ルーティングと機能アライメントステップを含むRACNetという新しいディープニューラルネットワークを提案する。
3次元画像入力の異なる入力長と単一のアノテーションを効果的に処理し、高精度な決定を提供する。
さらに、トレーニングされたRACNetから潜時変数を抽出することで、ネットワークの決定に関するさらなる洞察を提供するアンカーのセットが生成される。
論文 参考訳(メタデータ) (2023-03-01T02:07:48Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Contextual Information Enhanced Convolutional Neural Networks for
Retinal Vessel Segmentation in Color Fundus Images [0.0]
自動網膜血管セグメンテーションシステムは、臨床診断及び眼科研究を効果的に促進することができる。
ディープラーニングベースの手法が提案され、いくつかのカスタマイズされたモジュールが有名なエンコーダデコーダアーキテクチャU-netに統合されている。
その結果,提案手法は先行技術よりも優れ,感性/リコール,F1スコア,MCCの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-03-25T06:10:47Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。