論文の概要: Deep Learning in Diabetic Foot Ulcers Detection: A Comprehensive
Evaluation
- arxiv url: http://arxiv.org/abs/2010.03341v3
- Date: Mon, 24 May 2021 12:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:38:19.739900
- Title: Deep Learning in Diabetic Foot Ulcers Detection: A Comprehensive
Evaluation
- Title(参考訳): 糖尿病足部潰瘍検出における深層学習 : 包括的評価
- Authors: Moi Hoon Yap and Ryo Hachiuma and Azadeh Alavi and Raphael Brungel and
Bill Cassidy and Manu Goyal and Hongtao Zhu and Johannes Ruckert and Moshe
Olshansky and Xiao Huang and Hideo Saito and Saeed Hassanpour and Christoph
M. Friedrich and David Ascher and Anping Song and Hiroki Kajita and David
Gillespie and Neil D. Reeves and Joseph Pappachan and Claire O'Shea and Eibe
Frank
- Abstract要約: 本稿では、入賞チームが提案するディープラーニングに基づくアルゴリズムを比較し、DFUC 2020の結果を要約する。
最高の性能は、より高速なR-CNNの変種であるDeformable Convolutionから得られ、平均平均精度は0.6940、F1スコアは0.7434である。
- 参考スコア(独自算出の注目度): 14.227261503586599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a substantial amount of research involving computer methods
and technology for the detection and recognition of diabetic foot ulcers
(DFUs), but there is a lack of systematic comparisons of state-of-the-art deep
learning object detection frameworks applied to this problem. DFUC2020 provided
participants with a comprehensive dataset consisting of 2,000 images for
training and 2,000 images for testing. This paper summarises the results of
DFUC2020 by comparing the deep learning-based algorithms proposed by the
winning teams: Faster R-CNN, three variants of Faster R-CNN and an ensemble
method; YOLOv3; YOLOv5; EfficientDet; and a new Cascade Attention Network. For
each deep learning method, we provide a detailed description of model
architecture, parameter settings for training and additional stages including
pre-processing, data augmentation and post-processing. We provide a
comprehensive evaluation for each method. All the methods required a data
augmentation stage to increase the number of images available for training and
a post-processing stage to remove false positives. The best performance was
obtained from Deformable Convolution, a variant of Faster R-CNN, with a mean
average precision (mAP) of 0.6940 and an F1-Score of 0.7434. Finally, we
demonstrate that the ensemble method based on different deep learning methods
can enhanced the F1-Score but not the mAP.
- Abstract(参考訳): 糖尿病性足潰瘍(DFU)の検出・認識のためのコンピュータ手法と技術に関する研究は、かなりの数あるが、この問題に適用された最先端のディープラーニングオブジェクト検出フレームワークの体系的比較が欠如している。
DFUC2020は参加者に対して、トレーニング用の2,000イメージとテスト用の2,000イメージからなる包括的なデータセットを提供した。
本稿では,より高速なR-CNN,より高速なR-CNNの3つの変種とアンサンブル法,YOLOv3,YOLOv5,EfficientDet,新しいカスケード注意ネットワークの3つを比較し,DFUC2020の結果を要約する。
ディープラーニングの各手法について,モデルアーキテクチャの詳細,トレーニングのためのパラメータ設定,前処理,データ拡張,後処理などの追加ステージを提供する。
各手法について総合的な評価を行う。
すべての方法は、トレーニングに使用可能な画像数を増やすためのデータ拡張ステージと、偽陽性を取り除くための処理後ステージを必要とした。
最高の性能は、より高速なR-CNNの変種であるDeformable Convolutionから得られ、平均平均精度は0.6940、F1スコアは0.7434である。
最後に、異なる深層学習法に基づくアンサンブル法は、F1スコアを拡張できるが、mAPではないことを示す。
関連論文リスト
- Simple 2D Convolutional Neural Network-based Approach for COVID-19 Detection [8.215897530386343]
本研究では,肺CT画像解析におけるディープラーニング技術の利用について検討した。
我々は,CTスキャンに適した高度な空間スライス特徴学習(SSFL++)フレームワークを提案する。
本研究の目的は,CTスキャン全体のアウト・オブ・ディストリビューション(OOD)データをフィルタリングし,データ冗長性を70%削減して解析に不可欠な空間スライス特徴を選択することである。
論文 参考訳(メタデータ) (2024-03-17T14:34:51Z) - Label-efficient Multi-organ Segmentation Method with Diffusion Model [6.413416851085592]
我々は,CT画像における多臓器分割作業のための事前学習拡散モデルを用いたラベル効率の学習手法を提案する。
提案手法は, FLARE 2022データセットの最先端手法と比較して, 競合する多臓器セグメンテーション性能を実現する。
論文 参考訳(メタデータ) (2024-02-23T09:25:57Z) - Applications of Sequential Learning for Medical Image Classification [0.13191970195165517]
我々は,少量の医用画像データの連続的トレーニングのためのニューラルネットワークトレーニングフレームワークを開発した。
過度な適合、破滅的な忘れ、概念の漂流といった、逐次学習を妨げる問題に対処する。
論文 参考訳(メタデータ) (2023-09-26T00:46:25Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Transfer Learning with Ensembles of Deep Neural Networks for Skin Cancer
Classification in Imbalanced Data Sets [0.6802401545890961]
医療画像から皮膚癌を正確に分類するための機械学習技術が報告されている。
多くのテクニックは、訓練済みの畳み込みニューラルネットワーク(CNN)に基づいており、限られたトレーニングデータに基づいてモデルをトレーニングすることができる。
本稿では,複数のcnnモデルが事前学習され,一部は手元のデータのみにトレーニングされ,患者情報(メタデータ)はメタリーナーを用いて結合される,新しいアンサンブルベースのcnnアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-22T06:04:45Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z) - Biologically-Motivated Deep Learning Method using Hierarchical
Competitive Learning [0.0]
本稿では,CNNの事前学習方法として,前方伝播信号のみを必要とする教師なしの競争学習を導入することを提案する。
提案手法は,例えば時系列や医療データなど,ラベルの粗末なデータに対して有用である。
論文 参考訳(メタデータ) (2020-01-04T20:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。