論文の概要: UT-Net: Combining U-Net and Transformer for Joint Optic Disc and Cup
Segmentation and Glaucoma Detection
- arxiv url: http://arxiv.org/abs/2303.04939v1
- Date: Wed, 8 Mar 2023 23:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:38:46.405322
- Title: UT-Net: Combining U-Net and Transformer for Joint Optic Disc and Cup
Segmentation and Glaucoma Detection
- Title(参考訳): UT-Net: U-Net と Transformer を併用した光学ディスクとカップセグメンテーションと緑内障検出
- Authors: Rukhshanda Hussain, Hritam Basak
- Abstract要約: 緑内障は慢性の視覚疾患であり、永久的な不可逆性視覚障害を引き起こす可能性がある。
緑内障の早期発見には,カップ・ツー・ディスク比(CDR)の測定が重要な役割を担っている。
我々はUT-Netと呼ばれる新しいセグメンテーションパイプラインを提案し、U-Netとトランスフォーマーの双方の利点をエンコーディング層で利用し、次にアテンションゲートバイ線形融合方式を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Glaucoma is a chronic visual disease that may cause permanent irreversible
blindness. Measurement of the cup-to-disc ratio (CDR) plays a pivotal role in
the detection of glaucoma in its early stage, preventing visual disparities.
Therefore, accurate and automatic segmentation of optic disc (OD) and optic cup
(OC) from retinal fundus images is a fundamental requirement. Existing
CNN-based segmentation frameworks resort to building deep encoders with
aggressive downsampling layers, which suffer from a general limitation on
modeling explicit long-range dependency. To this end, in this paper, we propose
a new segmentation pipeline, called UT-Net, availing the advantages of U-Net
and transformer both in its encoding layer, followed by an attention-gated
bilinear fusion scheme. In addition to this, we incorporate Multi-Head
Contextual attention to enhance the regular self-attention used in traditional
vision transformers. Thus low-level features along with global dependencies are
captured in a shallow manner. Besides, we extract context information at
multiple encoding layers for better exploration of receptive fields, and to aid
the model to learn deep hierarchical representations. Finally, an enhanced
mixing loss is proposed to tightly supervise the overall learning process. The
proposed model has been implemented for joint OD and OC segmentation on three
publicly available datasets: DRISHTI-GS, RIM-ONE R3, and REFUGE. Additionally,
to validate our proposal, we have performed exhaustive experimentation on
Glaucoma detection from all three datasets by measuring the Cup to Disc Ratio
(CDR) value. Experimental results demonstrate the superiority of UT-Net as
compared to the state-of-the-art methods.
- Abstract(参考訳): 緑内障は慢性視覚疾患であり、永久的な可逆性盲目を引き起こす可能性がある。
cup-to-disc ratio(cdr)の測定は、早期の緑内障の検出において重要な役割を果たす。
したがって、網膜基底画像から光学ディスク(OD)と光学カップ(OC)を正確に自動分割することが基本的な要件である。
既存のCNNベースのセグメンテーションフレームワークでは,アグレッシブなダウンサンプリングレイヤを備えたディープエンコーダの構築が採用されている。
そこで本稿では,U-NetとTransformerの両方の利点をエンコーディング層で活用したUT-Netと呼ばれる新しいセグメンテーションパイプラインを提案する。
これに加えて、従来の視覚変換器で使用される通常の自己注意を高めるために、マルチヘッドコンテキストアテンションを組み込んだ。
したがって、グローバル依存を伴う低レベルの機能は、浅い方法でキャプチャされる。
さらに,複数の符号化層における文脈情報を抽出し,受容領域の探索と,モデルによる階層表現の深層学習を支援する。
最後に, 総合的な学習プロセスの監督のために, 混合損失の増大を提案する。
提案モデルは、DRISHTI-GS、RIM-ONE R3、REFUGEの3つの公開データセット上でのODとOCのセグメンテーションのために実装されている。
さらに,提案手法を検証するために,Cup to Disc Ratio(CDR)値を測定することで,3つのデータセットすべてから緑内障検出を徹底的に実施した。
実験の結果, UT-Net は最先端手法に比べて優れていた。
関連論文リスト
- TransUNext: towards a more advanced U-shaped framework for automatic vessel segmentation in the fundus image [19.16680702780529]
本稿では,ハイブリッドトランスフォーマーとCNN: TransUNextのための,より高度なU字型アーキテクチャを提案する。
Global Multi-Scale Fusion (GMSF)モジュールはさらに、スキップ接続のアップグレード、高レベルセマンティクスと低レベル詳細情報の融合、高レベルセマンティクスと低レベルセマンティクスの相違を取り除くために導入された。
論文 参考訳(メタデータ) (2024-11-05T01:44:22Z) - EDDense-Net: Fully Dense Encoder Decoder Network for Joint Segmentation
of Optic Cup and Disc [0.880802134366532]
緑内障(英: Glaucoma)は、視神経に損傷を与える眼疾患であり、視覚障害と永久盲眼を引き起こす。
緑内障の診断には、光ディスク(OD)検査におけるカップ・ツー・ディスク比(CDR)の推定が用いられる。
OCとODの結合分割のためのEDDense-Netセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-20T07:45:03Z) - RetiFluidNet: A Self-Adaptive and Multi-Attention Deep Convolutional
Network for Retinal OCT Fluid Segmentation [3.57686754209902]
OCTガイド下治療には網膜液の定量化が必要である。
RetiFluidNetと呼ばれる新しい畳み込みニューラルアーキテクチャは、多クラス網膜流体セグメンテーションのために提案されている。
モデルは、テクスチャ、コンテキスト、エッジといった特徴の階層的な表現学習の恩恵を受ける。
論文 参考訳(メタデータ) (2022-09-26T07:18:00Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - MPG-Net: Multi-Prediction Guided Network for Segmentation of Retinal
Layers in OCT Images [11.370735571629602]
OCT画像の自動網膜層分割のための新しいマルチプレディション誘導アテンションネットワーク(MPG-Net)を提案する。
MPG-Netは、信頼性の高い自動セグメンテーションのためのU字形完全畳み込みネットワーク(FCN)の識別力を強化する2つの主要なステップから構成される。
論文 参考訳(メタデータ) (2020-09-28T21:22:22Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - DSU-net: Dense SegU-net for automatic head-and-neck tumor segmentation
in MR images [30.747375849126925]
MRIにおける鼻咽頭癌(NPC)分類のためのDense SegU-net(DSU-net)フレームワークを提案する。
潜在的な消滅段階的問題に対処するために,特徴の伝播と再利用を容易にする高密度ブロックを導入する。
提案するアーキテクチャは,既存の最先端セグメンテーションネットワークよりも優れている。
論文 参考訳(メタデータ) (2020-06-11T09:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。