論文の概要: Exploiting the Transferability of Deep Learning Systems Across
Multi-modal Retinal Scans for Extracting Retinopathy Lesions
- arxiv url: http://arxiv.org/abs/2006.02662v2
- Date: Fri, 14 Aug 2020 15:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 12:40:19.243348
- Title: Exploiting the Transferability of Deep Learning Systems Across
Multi-modal Retinal Scans for Extracting Retinopathy Lesions
- Title(参考訳): 多モード網膜スキャンによる網膜病変抽出における深層学習システムの伝達能の活用
- Authors: Taimur Hassan, Muhammad Usman Akram and Naoufel Werghi
- Abstract要約: 本稿では,網膜病変抽出のためのセマンティックセグメンテーション,シーン解析,ハイブリッドディープラーニングシステムの詳細な評価を行う。
複数の網膜スキャナーの仕様にまたがってこれらのモデルの転送可能性を活用する新しい戦略を提案する。
概して、ResNet-50を介してバックボンドされたハイブリッド網膜分析およびグレーディングネットワーク(RAGNet)は、網膜の病変を抽出するために最初に立ち上がった。
- 参考スコア(独自算出の注目度): 11.791160309522013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retinal lesions play a vital role in the accurate classification of retinal
abnormalities. Many researchers have proposed deep lesion-aware screening
systems that analyze and grade the progression of retinopathy. However, to the
best of our knowledge, no literature exploits the tendency of these systems to
generalize across multiple scanner specifications and multi-modal imagery.
Towards this end, this paper presents a detailed evaluation of semantic
segmentation, scene parsing and hybrid deep learning systems for extracting the
retinal lesions such as intra-retinal fluid, sub-retinal fluid, hard exudates,
drusen, and other chorioretinal anomalies from fused fundus and optical
coherence tomography (OCT) imagery. Furthermore, we present a novel strategy
exploiting the transferability of these models across multiple retinal scanner
specifications. A total of 363 fundus and 173,915 OCT scans from seven publicly
available datasets were used in this research (from which 297 fundus and 59,593
OCT scans were used for testing purposes). Overall, a hybrid retinal analysis
and grading network (RAGNet), backboned through ResNet-50, stood first for
extracting the retinal lesions, achieving a mean dice coefficient score of
0.822. Moreover, the complete source code and its documentation are released
at: http://biomisa.org/index.php/downloads/.
- Abstract(参考訳): 網膜病変は網膜異常の正確な分類において重要な役割を果たす。
多くの研究者が網膜症の進行を分析し評価する深部病変認識スクリーニングシステムを提案している。
しかし、我々の知る限りでは、複数のスキャナー仕様やマルチモーダル画像にまたがる一般化の傾向を利用する文献は存在しない。
そこで本論文では, 網膜内液, 網膜下液, 硬口蓋, ドルゼンなどの網膜病変を抽出する, セマンティックセグメンテーション, シーン解析, ハイブリッド深層学習システムについて, 融合した基底部および光コヒーレンス断層撮影(OCT)画像から詳細な評価を行った。
さらに、複数の網膜スキャナー仕様にまたがるモデルの転送可能性を利用した新しい手法を提案する。
この研究で利用可能な7つのデータセットから合計363基のファンドと173,915基のCTスキャンが使用された(そのうち297基のファンドと59,593基のCTスキャンが試験目的に使用された)。
総じて、ResNet-50を介してバックボンドされたハイブリッド網膜解析およびグレーディングネットワーク(RAGNet)は、まず網膜病変を抽出し、平均ダイス係数スコア0.822を達成した。
さらに、完全なソースコードとそのドキュメントは、http://biomisa.org/index.php/downloads/でリリースされる。
関連論文リスト
- Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - nnUNet RASPP for Retinal OCT Fluid Detection, Segmentation and
Generalisation over Variations of Data Sources [25.095695898777656]
我々は、複数のデバイスベンダーの画像間で一貫した高パフォーマンスを持つnnUNetの2つの変種を提案する。
このアルゴリズムはMICCAI 2017 RETOUCHチャレンジデータセットで検証された。
実験の結果,我々のアルゴリズムは最先端のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-02-25T23:47:23Z) - Incremental Cross-Domain Adaptation for Robust Retinopathy Screening via
Bayesian Deep Learning [7.535751594024775]
網膜症は、タイムリーに治療されないと、深刻な視覚障害や失明を引き起こす網膜疾患のグループである。
本稿では, 深い分類モデルを用いて, 異常網膜病理を段階的に学習することのできる, 漸進的なクロスドメイン適応手法を提案する。
提案したフレームワークは、6つの公開データセットで評価され、全体的な精度とF1スコアをそれぞれ0.9826と0.9846で達成することで、最先端の競合他社を上回っている。
論文 参考訳(メタデータ) (2021-10-18T13:45:21Z) - Transfer Learning Through Weighted Loss Function and Group Normalization
for Vessel Segmentation from Retinal Images [0.0]
血管の血管構造は緑内障や糖尿病網膜症などの網膜疾患の診断に重要である。
深層学習とトランスファー学習を併用した網膜血管のセグメンテーション手法を提案する。
提案手法は,他の手法よりもセグメンテーション精度が高い。
論文 参考訳(メタデータ) (2020-12-16T20:34:48Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Assignment Flow for Order-Constrained OCT Segmentation [0.0]
網膜層厚の同定は、患者ごとに個別に行う重要な課題である。
自動セグメンテーションモデルの構築は,医用画像処理分野において重要な課題となっている。
我々は、秩序に制約された3D OCT網膜細胞層セグメンテーションのための新しい、純粋にデータ駆動型テキスト幾何学的アプローチを提案する。
論文 参考訳(メタデータ) (2020-09-10T01:57:53Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Automated segmentation of retinal fluid volumes from structural and
angiographic optical coherence tomography using deep learning [2.041049231600541]
我々は,光コヒーレンストモグラフィー(OCT)ボリュームで網膜液を分画するための,網膜流体ネットワーク(ReF-Net)と呼ばれる深部畳み込みニューラルネットワーク(CNN)を提案した。
ReF-Netの訓練と試験には断面CTと血管造影(OCTA)スキャンが用いられた。
ReF-Netは網膜液分画において高い精度(F1 = 0.864 +/-0.084)を示す。
論文 参考訳(メタデータ) (2020-06-03T22:55:47Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。