論文の概要: A deep learning model for burn depth classification using ultrasound
imaging
- arxiv url: http://arxiv.org/abs/2203.15879v1
- Date: Tue, 29 Mar 2022 20:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:31:47.389257
- Title: A deep learning model for burn depth classification using ultrasound
imaging
- Title(参考訳): 超音波画像を用いた燃焼深度分類のための深層学習モデル
- Authors: Sangrock Lee, Rahul, James Lukan, Tatiana Boyko, Kateryna Zelenova,
Basiel Makled, Conner Parsey, Jack Norfleet, and Suvranu De
- Abstract要約: 本稿では, 皮膚の組織形態の変化に基づいて, 燃焼深度を分類する深層畳み込みニューラルネットワークを提案する。
ネットワークはエンコーダ・デコーダアーキテクチャを用いて、未焼成皮膚画像の低次元多様体を学習する。
20倍のクロスバリデーションから得られた性能測定値から, モデルが深部厚熱傷を識別できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identification of burn depth with sufficient accuracy is a challenging
problem. This paper presents a deep convolutional neural network to classify
burn depth based on altered tissue morphology of burned skin manifested as
texture patterns in the ultrasound images. The network first learns a
low-dimensional manifold of the unburned skin images using an encoder-decoder
architecture that reconstructs it from ultrasound images of burned skin. The
encoder is then re-trained to classify burn depths. The encoder-decoder network
is trained using a dataset comprised of B-mode ultrasound images of unburned
and burned ex vivo porcine skin samples. The classifier is developed using
B-mode images of burned in situ skin samples obtained from freshly euthanized
postmortem pigs. The performance metrics obtained from 20-fold cross-validation
show that the model can identify deep-partial thickness burns, which is the
most difficult to diagnose clinically, with 99% accuracy, 98% sensitivity, and
100% specificity. The diagnostic accuracy of the classifier is further
illustrated by the high area under the curve values of 0.99 and 0.95,
respectively, for the receiver operating characteristic and precision-recall
curves. A post hoc explanation indicates that the classifier activates the
discriminative textural features in the B-mode images for burn classification.
The proposed model has the potential for clinical utility in assisting the
clinical assessment of burn depths using a widely available clinical imaging
device.
- Abstract(参考訳): 十分な精度で燃焼深度を特定することは難しい問題である。
本稿では, 超音波画像のテクスチャパターンとして表される皮膚の組織形態の変化に基づいて, 燃焼深度を分類する深層畳み込みニューラルネットワークを提案する。
このネットワークは、まず、エンコーダデコーダアーキテクチャを用いて、焼いた皮膚の超音波画像から再構成した未焼成皮膚画像の低次元多様体を学習する。
エンコーダは、バーン深さを分類するために再訓練される。
エンコーダ−デコーダネットワークは、未燃焼のブタの皮膚サンプルのbモード超音波画像からなるデータセットを用いて訓練される。
本発明の分類器は、新発泡後ブタから得られた焼成 in situ 皮膚サンプルのBモード画像を用いて開発された。
20倍のクロスバリデーションから得られた評価値から, 臨床診断が最も困難である深部肉厚バーンを99%の精度, 98%の感度, 100%の特異性で同定できることが示唆された。
識別器の診断精度は、受信機動作特性および精度リコール曲線に対して、それぞれ0.99および0.95の曲線値の高面積でさらに示される。
ポストホック説明では,Bモード画像の識別的テクスチャ特徴を活性化し,バーン分類を行う。
提案モデルは,広く利用可能な臨床画像装置を用いて,燃焼深度の臨床評価を支援するための臨床応用の可能性を有する。
関連論文リスト
- Lesion Elevation Prediction from Skin Images Improves Diagnosis [18.536449533612235]
深層学習モデルを用いて2次元皮膚病変画像から画像レベルの病変標高ラベルを予測する。
以上の結果より,AUROCは6.29%,AUROCは2.69%に改善した。
論文 参考訳(メタデータ) (2024-08-05T19:19:29Z) - A Multi-Scale Framework for Out-of-Distribution Detection in Dermoscopic
Images [10.20384144853726]
本稿では,皮膚疾患の画像データを検出するためのマルチスケール検出フレームワークを提案する。
我々のフレームワークはニューラルネットワークの異なる層から特徴を抽出する。
実験により,提案手法は,他の最先端手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-01-18T13:49:35Z) - Human-centered XAI for Burn Depth Characterization [8.967153054343775]
火傷分類は、医療AI分野における重要な側面である。
バーン超音波分類モデルを改善するための説明可能なHuman-in-the-loopフレームワークを提案する。
フレームワークによって一度変更され, 燃焼深度分類の精度が, 88%から94%に向上したことを示す。
論文 参考訳(メタデータ) (2022-10-24T18:37:52Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Automatic Recognition of the Supraspinatus Tendinopathy from Ultrasound
Images using Convolutional Neural Networks [1.021325814813899]
畳み込みニューラルネットワークに基づく自動腱症認識フレームワークが提案されている。
テンドンセグメンテーションはNASUNetという新しいネットワークを通じて行われる。
腱症診断のための一般的な分類パイプラインが提案されている。
論文 参考訳(メタデータ) (2020-11-23T22:41:41Z) - Leveraging Adaptive Color Augmentation in Convolutional Neural Networks
for Deep Skin Lesion Segmentation [0.0]
データ表現とモデル性能を増幅する適応色拡張手法を提案する。
正常な皮膚組織に対して皮膚病変を識別するためのネットワークによって得られた意味的構造的特徴を質的に同定し,検証した。
論文 参考訳(メタデータ) (2020-10-31T00:16:23Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。