論文の概要: Robust and efficient computation of retinal fractal dimension through
deep approximation
- arxiv url: http://arxiv.org/abs/2207.05757v1
- Date: Tue, 12 Jul 2022 15:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 06:47:45.145119
- Title: Robust and efficient computation of retinal fractal dimension through
deep approximation
- Title(参考訳): 深部近似による網膜フラクタル次元のロバストで効率的な計算
- Authors: Justin Engelmann, Ana Villaplana-Velasco, Amos Storkey, Miguel O.
Bernabeu
- Abstract要約: 網膜特性を計算する方法は、高画質の画像にのみ適用可能な複雑で多段階のパイプラインである傾向がある。
本稿では,DART(Deep Approximation of Retinal Traits)を提案する。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A retinal trait, or phenotype, summarises a specific aspect of a retinal
image in a single number. This can then be used for further analyses, e.g. with
statistical methods. However, reducing an aspect of a complex image to a
single, meaningful number is challenging. Thus, methods for calculating retinal
traits tend to be complex, multi-step pipelines that can only be applied to
high quality images. This means that researchers often have to discard
substantial portions of the available data. We hypothesise that such pipelines
can be approximated with a single, simpler step that can be made robust to
common quality issues. We propose Deep Approximation of Retinal Traits (DART)
where a deep neural network is used predict the output of an existing pipeline
on high quality images from synthetically degraded versions of these images. We
demonstrate DART on retinal Fractal Dimension (FD) calculated by VAMPIRE, using
retinal images from UK Biobank that previous work identified as high quality.
Our method shows very high agreement with FD VAMPIRE on unseen test images
(Pearson r=0.9572). Even when those images are severely degraded, DART can
still recover an FD estimate that shows good agreement with FD VAMPIRE obtained
from the original images (Pearson r=0.8817). This suggests that our method
could enable researchers to discard fewer images in the future. Our method can
compute FD for over 1,000img/s using a single GPU. We consider these to be very
encouraging initial results and hope to develop this approach into a useful
tool for retinal analysis.
- Abstract(参考訳): 網膜形質または表現型は、網膜像の特定の側面を単一の数で要約する。
この方法は、例えば統計学の手法など、さらなる分析に使うことができる。
しかし、複雑な画像のアスペクトを単一の有意義な数に減らすのは困難である。
したがって、網膜特性を計算する方法は、高品質の画像にのみ適用可能な複雑で多段階のパイプラインである傾向がある。
つまり、研究者は利用可能なデータのかなりの部分を破棄しなければならない。
このようなパイプラインは、一般的な品質問題に対して堅牢な単一のシンプルなステップで近似できると仮定する。
本稿では,これらの画像の合成劣化バージョンから,既存のパイプラインの出力を予測するディープニューラルネットワークを用いた網膜特性(dart)の深い近似を提案する。
VAMPIREにより算出された網膜フラクタル次元(FD)のDARTを,英国バイオバンクの網膜画像を用いて実証した。
実験画像ではfd吸血鬼と非常に高い一致を示した(pearson r=0.9572)。
これらの画像がひどく劣化しても、DARTは元の画像から得られたFD VAMPIREとの良好な一致を示すFD推定を回復することができる(Pearson r=0.8817)。
この方法では、将来より少ない画像が捨てられる可能性が示唆されている。
1つのGPUを用いて1000img/s以上のFDを計算できる。
これらは初期の成果を大いに奨励するもので、網膜分析に有用なツールとしてこのアプローチを開発したいと考えている。
関連論文リスト
- Chasing Better Deep Image Priors between Over- and Under-parameterization [63.8954152220162]
そこで本研究では,DNN固有の空間性を利用して,LIP(lottery image prior)を新たに検討する。
LIPworksは、コンパクトなモデルサイズでディープデコーダを著しく上回っている。
また、LIPを圧縮センシング画像再構成に拡張し、事前学習したGANジェネレータを前者として使用する。
論文 参考訳(メタデータ) (2024-10-31T17:49:44Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Learning Weighting Map for Bit-Depth Expansion within a Rational Range [64.15915577164894]
ビット深化(BDE)は、低ビット深化(LBD)ソースから高ビット深化(HBD)画像を表示する新興技術の1つである。
既存のBDEメソッドは、様々なBDE状況に対して統一的なソリューションを持っていない。
我々は,各画素の重みを求めるためにビット復元ネットワーク(BRNet)を設計し,補充値の比率を合理的範囲内で示す。
論文 参考訳(メタデータ) (2022-04-26T02:27:39Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - Compressed Sensing for Photoacoustic Computed Tomography Using an
Untrained Neural Network [1.7237160821929758]
光音響(PA)CT(PACT)は様々な臨床応用において大きな可能性を秘めている。
測定されたチャンネルの数を減らしたり、検出されたビューを制限すると、アーティファクトやサイドローブが画像を汚染する可能性がある。
本稿では,未学習ニューラルネットワークを用いたPACTの圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:01:58Z) - Binary segmentation of medical images using implicit spline
representations and deep learning [1.5293427903448025]
本稿では,暗黙のスプライン表現と深層畳み込みニューラルネットワークを組み合わせた画像分割手法を提案する。
当社のベストネットワークでは、Diceの平均ボリュームテストスコアが92%近くに達し、この先天性心疾患データセットの最先端に達しています。
論文 参考訳(メタデータ) (2021-02-25T10:04:25Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。