論文の概要: A Deep Retinal Image Quality Assessment Network with Salient Structure
Priors
- arxiv url: http://arxiv.org/abs/2012.15575v1
- Date: Thu, 31 Dec 2020 12:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 00:53:24.106332
- Title: A Deep Retinal Image Quality Assessment Network with Salient Structure
Priors
- Title(参考訳): 優れた構造を持つ深部網膜画像品質評価ネットワーク
- Authors: Ziwen Xu, beiji Zou, Qing Liu
- Abstract要約: 眼科医が網膜画像の質を評価する方法を模倣し, salstructuiqa と呼ばれる方法を提案する。
まず、自動網膜品質評価のための2つの重要な構造。
一つは、光学ディスク領域と大型の吐出物を含む大型の塩分構造です。
もう1つは、主に船を含む小型のサルエント構造である。
提案したDual-branch SalStructIQAは、最先端の網膜画像品質評価法よりも優れており、SalStructIQAは最先端の深部網膜画像品質評価と比較して非常に軽量である。
- 参考スコア(独自算出の注目度): 7.413600549174132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retinal image quality assessment is an essential prerequisite for diagnosis
of retinal diseases. Its goal is to identify retinal images in which anatomic
structures and lesions attracting ophthalmologists' attention most are
exhibited clearly and definitely while reject poor quality fundus images.
Motivated by this, we mimic the way that ophthalmologists assess the quality of
retinal images and propose a method termed SalStructuIQA. First, two salient
structures for automated retinal quality assessment. One is the large-size
salient structures including optic disc region and exudates in large-size. The
other is the tiny-size salient structures which mainly include vessels. Then we
incorporate the proposed two salient structure priors with deep convolutional
neural network (CNN) to shift the focus of CNN to salient structures.
Accordingly, we develop two CNN architectures: Dual-branch SalStructIQA and
Single-branch SalStructIQA. Dual-branch SalStructIQA contains two CNN branches
and one is guided by large-size salient structures while the other is guided by
tiny-size salient structures. Single-branch SalStructIQA contains one CNN
branch, which is guided by the concatenation of salient structures in both
large-size and tiny-size. Experimental results on Eye-Quality dataset show that
our proposed Dual-branch SalStructIQA outperforms the state-of-the-art methods
for retinal image quality assessment and Single-branch SalStructIQA is much
light-weight comparing with state-of-the-art deep retinal image quality
assessment methods and still achieves competitive performances.
- Abstract(参考訳): 網膜画像品質評価は網膜疾患の診断に必須の前提条件である。
その目的は、眼科医の注意を惹きつける解剖学的構造と病変が、品質の悪い眼底像を拒絶しながら、明確かつ確実に示される網膜像を特定することである。
そこで我々は,眼科医が網膜画像の品質を評価する方法を模倣し,SalStructuIQAという手法を提案する。
まず、自動網膜品質評価のための2つの健全な構造。
一つは、光学ディスク領域を含む大型のサルエント構造であり、大きな大きさのエウエートである。
もう1つは、主に船を含む小型のサルエント構造である。
次に,提案する2つのsalient構造をdeep convolutional neural network (cnn) と統合し,cnnの焦点をsalient構造にシフトさせる。
そこで我々はDual-branch SalStructIQAとSalStructIQAの2つのCNNアーキテクチャを開発した。
デュアルブランチSalStructIQAは2つのCNN枝を含み、1つは大きなサリアン構造でガイドされ、もう1つは小さなサリアン構造でガイドされている。
単枝のSalStructIQAは1つのCNN分岐を含み、大型と小型の両方で塩分構造の結合によって誘導される。
その結果,提案したDual-branch SalStructIQAは網膜画像品質評価の最先端手法よりも優れており,シングルブランチ SalStructIQA は最先端の深部網膜画像品質評価手法と比較して非常に軽量であり,競争性能も高いことがわかった。
関連論文リスト
- TPOT: Topology Preserving Optimal Transport in Retinal Fundus Image Enhancement [16.84367978693017]
持続性図の差を最小限に抑えて血管構造を規則化する訓練パラダイムを提案する。
得られたフレームワークをTPOT(Topology Preserving Optimal Transport)と呼ぶ。
大規模データセットを用いた実験結果から,提案手法の優位性を示した。
論文 参考訳(メタデータ) (2024-11-03T02:04:35Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - C-Net: A Reliable Convolutional Neural Network for Biomedical Image
Classification [6.85316573653194]
生体医用画像の分類を行うために,C-Netと呼ばれる複数のネットワークの結合からなる新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
C-Netモデルは、両方のデータセットの個々のメトリクスにおける他のモデルよりも優れており、誤分類はゼロである。
論文 参考訳(メタデータ) (2020-10-30T20:03:20Z) - A Dark and Bright Channel Prior Guided Deep Network for Retinal Image
Quality Assessment [6.427808996283626]
本稿では,ガイドネットと呼ばれる網膜画像品質評価のためのディープネットワークを提案する。
具体的には、深い特徴の識別能力を向上させるために、暗くて明るいチャネル事前をネットワークの開始層に埋め込む。
パブリック網膜画像品質データセットEye-Qualityと再注釈データセットRIQA-RFMiDの実験結果から, GuidedNetの有効性が示された。
論文 参考訳(メタデータ) (2020-10-26T03:53:08Z) - CS2-Net: Deep Learning Segmentation of Curvilinear Structures in Medical
Imaging [90.78899127463445]
カービリニア構造のセグメンテーションのための汎用的で統一的な畳み込みニューラルネットワークを提案する。
エンコーダとデコーダに自己アテンション機構を含む新しいカービリニア構造分割ネットワーク(CS2-Net)を導入する。
論文 参考訳(メタデータ) (2020-10-15T03:06:37Z) - Microscopic fine-grained instance classification through deep attention [7.50282814989294]
限られたサンプルを用いた微視的画像データのきめ細かい分類は、コンピュータビジョンとバイオメディカルイメージングにおいて未解決の問題である。
本稿では,エンドツーエンドで2つのタスクを同時に実行する,シンプルで効果的なディープネットワークを提案する。
その結果、堅牢だが軽量なエンドツーエンドのトレーニング可能なディープネットワークが実現し、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-10-06T15:29:58Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。