論文の概要: Multi-modal Wound Classification using Wound Image and Location by Deep
Neural Network
- arxiv url: http://arxiv.org/abs/2109.06969v1
- Date: Tue, 14 Sep 2021 21:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:02:37.406571
- Title: Multi-modal Wound Classification using Wound Image and Location by Deep
Neural Network
- Title(参考訳): 深部ニューラルネットワークによる描画画像と位置を用いたマルチモーダルハウンド分類
- Authors: D. M. Anisuzzaman, Yash Patel, Behrouz Rostami, Jeffrey Niezgoda,
Sandeep Gopalakrishnan, and Zeyun Yu
- Abstract要約: 本研究では、創傷画像とその対応する位置を用いたディープニューラルネットワークに基づくマルチモーダル分類器を開発した。
位置データを作成するためにボディマップも開発されており、傷の専門医が傷の場所をより効率的にタグ付けするのに役立つ。
- 参考スコア(独自算出の注目度): 2.25739374955489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wound classification is an essential step of wound diagnosis. An efficient
classifier can assist wound specialists in classifying wound types with less
financial and time costs and help them decide an optimal treatment procedure.
This study developed a deep neural network-based multi-modal classifier using
wound images and their corresponding locations to categorize wound images into
multiple classes, including diabetic, pressure, surgical, and venous ulcers. A
body map is also developed to prepare the location data, which can help wound
specialists tag wound locations more efficiently. Three datasets containing
images and their corresponding location information are designed with the help
of wound specialists. The multi-modal network is developed by concatenating the
image-based and location-based classifier's outputs with some other
modifications. The maximum accuracy on mixed-class classifications (containing
background and normal skin) varies from 77.33% to 100% on different
experiments. The maximum accuracy on wound-class classifications (containing
only diabetic, pressure, surgical, and venous) varies from 72.95% to 98.08% on
different experiments. The proposed multi-modal network also shows a
significant improvement in results from the previous works of literature.
- Abstract(参考訳): 創傷分類は創傷診断の必須ステップである。
効率的な分類器は、金銭的、時間的コストの少ない創種分類の専門家を支援し、最適な治療手順を決定するのに役立つ。
本研究では,創傷画像とそれに対応する位置を用いて,糖尿病,圧,外科的,静脈性潰瘍などの創傷画像を分類する深層ニューラルネットワークを用いたマルチモーダル分類法を開発した。
位置データを作成するためにボディマップも開発されており、傷の専門医が傷の場所をより効率的にタグ付けるのに役立つ。
画像と対応する位置情報を含む3つのデータセットは、創傷専門家の助けを借りて設計されている。
このマルチモーダルネットワークは、画像ベースおよび位置ベース分類器の出力を他の変更と結合して開発されている。
混合分類(背景と正常皮膚を含む)の最大精度は、異なる実験で77.33%から100%である。
傷種分類の最大精度(糖尿病、圧力、外科的、静脈のみを含む)は、異なる実験で72.95%から98.08%である。
提案するマルチモーダルネットワークは,従来の文献の成果に大きく改善されている。
関連論文リスト
- Disease Classification and Impact of Pretrained Deep Convolution Neural Networks on Diverse Medical Imaging Datasets across Imaging Modalities [0.0]
本稿では,種々の医用画像データセット間での伝達学習を伴う,事前訓練された深部畳み込みニューラルネットワークの使用の複雑さについて検討する。
固定特徴抽出器として事前訓練されたモデルを使用することで,データセットに関係なく性能が低下することを示す。
また、より深く複雑なアーキテクチャが必ずしも最高のパフォーマンスをもたらすとは限らないことも判明した。
論文 参考訳(メタデータ) (2024-08-30T04:51:19Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Integrated Image and Location Analysis for Wound Classification: A Deep
Learning Approach [3.5427949413406563]
急性および慢性の傷のグローバルな負担は、傷の分類方法を強化する上で魅力的なケースである。
深層畳み込みニューラルネットワークを用いて, 糖尿病, 血圧, 外科的, 静脈潰瘍の4つのカテゴリーに分類する。
本手法の特筆すべき点は、正確な創傷位置タグ付けを容易にするボディマップシステムの導入である。
論文 参考訳(メタデータ) (2023-08-23T02:49:22Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Medical Knowledge-Guided Deep Learning for Imbalanced Medical Image
Classification [3.9745217005532183]
モデルの性能を高めるために,医療知識に基づく一級分類手法を提案する。
不均衡画像分類のための深層学習に基づく一クラス分類パイプラインを設計する。
6つの最先端手法と比較して,優れたモデル性能を示す。
論文 参考訳(メタデータ) (2021-11-20T16:14:19Z) - Multiclass Burn Wound Image Classification Using Deep Convolutional
Neural Networks [0.0]
創傷専門家が管理プロトコルのより正確な診断と最適化を可能にするためには、継続的な創傷監視が重要です。
本研究では, 深層学習による傷傷画像の分類を, 傷の状況に応じて2、3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2021-03-01T23:54:18Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Multiclass Wound Image Classification using an Ensemble Deep CNN-based
Classifier [2.07811670193148]
創傷画像をマルチクラスに分類するためのアンサンブルディープ畳み込みニューラルネットワークに基づく分類器を開発した。
2次分類では96.4%,94.28%,3次分類では91.9%,87.7%であった。
論文 参考訳(メタデータ) (2020-10-19T15:20:12Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。