論文の概要: Wound Severity Classification using Deep Neural Network
- arxiv url: http://arxiv.org/abs/2204.07942v1
- Date: Sun, 17 Apr 2022 06:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 14:34:36.728011
- Title: Wound Severity Classification using Deep Neural Network
- Title(参考訳): 深層ニューラルネットワークを用いた創傷重症度分類
- Authors: D. M. Anisuzzaman, Yash Patel, Jeffrey Niezgoda, Sandeep
Gopalakrishnan, Zeyun Yu
- Abstract要約: 本研究では、創傷画像を用いて、ディープニューラルネットワークに基づく創傷重症度分類器を構築する。
グリーンクラスは治癒の初期段階にある傷を指しており、適切な治療を施して回復する可能性が高い。
黄色のクラスは、グリーンカテゴリーのものよりも注意と治療を必要とする傷を指す。
レッドクラスは、急激な注意と治療を必要とする最も重い傷を指す。
- 参考スコア(独自算出の注目度): 3.702631194466718
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The classification of wound severity is a critical step in wound diagnosis.
An effective classifier can help wound professionals categorize wound
conditions more quickly and affordably, allowing them to choose the best
treatment option. This study used wound photos to construct a deep neural
network-based wound severity classifier that classified them into one of three
classes: green, yellow, or red. The green class denotes wounds still in the
early stages of healing and are most likely to recover with adequate care.
Wounds in the yellow category require more attention and treatment than those
in the green category. Finally, the red class denotes the most severe wounds
that require prompt attention and treatment. A dataset containing different
types of wound images is designed with the help of wound specialists. Nine deep
learning models are used with applying the concept of transfer learning.
Several stacked models are also developed by concatenating these transfer
learning models. The maximum accuracy achieved on multi-class classification is
68.49%. In addition, we achieved 78.79%, 81.40%, and 77.57% accuracies on green
vs. yellow, green vs. red, and yellow vs. red classifications for binary
classifications.
- Abstract(参考訳): 傷の重症度分類は、傷の診断における重要なステップである。
効果的な分類器は、傷の専門職がより迅速かつ安価に傷の症状を分類し、最良の治療法を選択するのに役立つ。
本研究では,創傷写真を用いて深層ニューラルネットワークを用いた創傷重症度分類器を構築し,緑,黄,赤の3種類に分類した。
グリーンクラスは創傷が治癒の初期段階にあることを示しており、適切な治療で回復する可能性が最も高い。
黄色のカテゴリーの傷は、緑カテゴリーのものよりも注意と治療を必要とする。
最後に、レッドクラスは注意と治療を急がなければならない最も重い傷を示す。
創傷専門家の助けを借りて、異なる種類の創傷画像を含むデータセットを設計する。
9つのディープラーニングモデルは、転送学習の概念の適用に使用される。
いくつかの積み重ねモデルもこれらの移行学習モデルを連結して開発されている。
多クラス分類における最大精度は68.49%である。
さらに,二分分類では,緑と黄色,緑と赤,黄色と赤で78.79%,81.40%,77.57%の確率を達成した。
関連論文リスト
- Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Development of a deep learning-based tool to assist wound classification [11.285822990457726]
本稿では,非女性ケア専門の医療従事者を支援する深層学習型創傷分類ツールを提案する。
この分類の正確さは適切な創傷管理に不可欠である。
本モデルは, 深部, 感染, 動脈, 静脈, 圧傷の5つのタスクを, 高い精度で同時に分類した最初のモデルである。
論文 参考訳(メタデータ) (2023-03-29T08:24:27Z) - Multi-modal Wound Classification using Wound Image and Location by Deep
Neural Network [2.25739374955489]
本研究では、創傷画像とその対応する位置を用いたディープニューラルネットワークに基づくマルチモーダル分類器を開発した。
位置データを作成するためにボディマップも開発されており、傷の専門医が傷の場所をより効率的にタグ付けするのに役立つ。
論文 参考訳(メタデータ) (2021-09-14T21:00:30Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Multiclass Burn Wound Image Classification Using Deep Convolutional
Neural Networks [0.0]
創傷専門家が管理プロトコルのより正確な診断と最適化を可能にするためには、継続的な創傷監視が重要です。
本研究では, 深層学習による傷傷画像の分類を, 傷の状況に応じて2、3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2021-03-01T23:54:18Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Multiclass Wound Image Classification using an Ensemble Deep CNN-based
Classifier [2.07811670193148]
創傷画像をマルチクラスに分類するためのアンサンブルディープ畳み込みニューラルネットワークに基づく分類器を開発した。
2次分類では96.4%,94.28%,3次分類では91.9%,87.7%であった。
論文 参考訳(メタデータ) (2020-10-19T15:20:12Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - GREEN: a Graph REsidual rE-ranking Network for Grading Diabetic
Retinopathy [31.26435485399567]
本稿では,従来の画像分類ネットワークに先立ってクラス依存性を導入するために,グラフ残差rEランクネットワーク(Green)を提案する。
標準ベンチマークの実験では、GREENは最先端のアプローチに対して好意的に機能することが示された。
論文 参考訳(メタデータ) (2020-07-20T09:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。