論文の概要: A Pressure Ulcer Care System For Remote Medical Assistance: Residual
U-Net with an Attention Model Based for Wound Area Segmentation
- arxiv url: http://arxiv.org/abs/2101.09433v1
- Date: Sat, 23 Jan 2021 06:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 13:57:27.730287
- Title: A Pressure Ulcer Care System For Remote Medical Assistance: Residual
U-Net with an Attention Model Based for Wound Area Segmentation
- Title(参考訳): 遠隔医療支援のためのプレッシャ潰瘍ケアシステム:創部領域分割に基づく注意モデルを用いた残留U-Net
- Authors: Jinyeong Chae, Ki Yong Hong, Jihie Kim
- Abstract要約: 本論文では,画像処理技術を用いて加圧潰瘍管理を支援する遠隔医療アシスタントを提案する。
提案システムは,創傷分類と解析のための深層学習モデルを備えた移動体アプリケーションを含む。
得られたモデルは、99.0%の精度、99.99%のユニオン上の交差(IoU)、および圧力潰瘍分割のための93.4%の類似係数(DSC)を提供する。
- 参考スコア(独自算出の注目度): 1.2053281584624362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increasing numbers of patients with disabilities or elderly people with
mobility issues often suffer from a pressure ulcer. The affected areas need
regular checks, but they have a difficulty in accessing a hospital. Some remote
diagnosis systems are being used for them, but there are limitations in
checking a patient's status regularly. In this paper, we present a remote
medical assistant that can help pressure ulcer management with image processing
techniques. The proposed system includes a mobile application with a deep
learning model for wound segmentation and analysis. As there are not enough
data to train the deep learning model, we make use of a pretrained model from a
relevant domain and data augmentation that is appropriate for this task. First
of all, an image preprocessing method using bilinear interpolation is used to
resize images and normalize the images. Second, for data augmentation, we use
rotation, reflection, and a watershed algorithm. Third, we use a pretrained
deep learning model generated from skin wound images similar to pressure ulcer
images. Finally, we added an attention module that can provide hints on the
pressure ulcer image features. The resulting model provides an accuracy of
99.0%, an intersection over union (IoU) of 99.99%, and a dice similarity
coefficient (DSC) of 93.4% for pressure ulcer segmentation, which is better
than existing results.
- Abstract(参考訳): 障害のある患者や移動障害のある高齢者の増加は、しばしば圧力潰瘍に苦しむ。
被害地域は定期的な検査が必要だが、病院へのアクセスが困難である。
遠隔診断システムもいくつか使用されているが,患者の状態の定期的な確認には限界がある。
本稿では,画像処理技術を用いて潰瘍管理を支援する遠隔医療アシスタントを提案する。
提案システムは,創傷分類と解析のための深層学習モデルを備えたモバイルアプリケーションを含む。
ディープラーニングモデルをトレーニングするのに十分なデータがないので、関連するドメインから事前訓練されたモデルと、このタスクに適したデータ拡張を利用します。
まず、双線形補間を用いた画像前処理法を用いて画像の縮小と正規化を行う。
第二に、データ拡張には回転、反射、流域アルゴリズムを用いる。
第3に,感圧潰瘍画像と同様の皮膚創傷画像から,事前訓練した深層学習モデルを用いた。
最後に,圧力潰瘍画像の特徴のヒントを提供するアテンションモジュールを追加した。
その結果、99.0%の精度、99.99%の結合(IoU)、93.4%のサイス類似係数(DSC)が得られた。
関連論文リスト
- LoGra-Med: Long Context Multi-Graph Alignment for Medical Vision-Language Model [55.80651780294357]
最新の医療用マルチモーダル大規模言語モデル(med-MLLM)は、事前訓練において命令追従データを活用する。
LoGra-Medは新しいマルチグラフアライメントアルゴリズムで、画像のモダリティ、会話ベースの記述、拡張キャプション間でのトリプルト相関を強制する。
以上の結果から,LoGra-Medは医療用VQAの600K画像テキスト対に対してLAVA-Medと一致し,その10%でトレーニングした場合に有意に優れていた。
論文 参考訳(メタデータ) (2024-10-03T15:52:03Z) - CROCODILE: Causality aids RObustness via COntrastive DIsentangled LEarning [8.975676404678374]
CROCODILEフレームワークを導入し、因果関係のツールがモデルの堅牢性からドメインシフトを育む方法を示します。
我々はCXRの多ラベル肺疾患分類に750万枚以上の画像を用いて本手法を適用した。
論文 参考訳(メタデータ) (2024-08-09T09:08:06Z) - Overcoming Dimensional Collapse in Self-supervised Contrastive Learning
for Medical Image Segmentation [2.6764957223405657]
医用画像解析分野へのコントラスト学習の適用について検討する。
以上の結果から,最先端のコントラスト学習手法であるMoCo v2は,医用画像に適用すると次元的崩壊に遭遇することが明らかとなった。
これを解決するために,局所的な特徴学習と特徴デコレーションという2つの重要な貢献を提案する。
論文 参考訳(メタデータ) (2024-02-22T15:02:13Z) - AttResDU-Net: Medical Image Segmentation Using Attention-based Residual
Double U-Net [0.0]
本稿では,既存の医用画像セグメンテーションネットワークを改善したアテンションベース残留Double U-Netアーキテクチャ(AttResDU-Net)を提案する。
CVC clinic-DB、ISIC 2018、2018 Data Science Bowlの3つのデータセットで実験を行い、それぞれ94.35%、91.68%、92.45%のDice Coefficientスコアを得た。
論文 参考訳(メタデータ) (2023-06-25T14:28:08Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Training deep cross-modality conversion models with a small amount of
data and its application to MVCT to kVCT conversion [1.4746127876003345]
提案手法は,CT画像に適した複数の拡張を持つGAN(Generative Adversarial Network)に基づく。
深層学習に基づくMVCTからkVCTへの変換モデルを開発した。
論文 参考訳(メタデータ) (2021-07-12T07:43:41Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - CNN-CASS: CNN for Classification of Coronary Artery Stenosis Score in
MPR Images [0.0]
MPR画像における狭窄の重症度を同定する自動モデルを開発した。
このモデルは3つのクラスのうちの1つを予測している: 正常の'no stenosis'、検出された'non-significant' - 1-50%の狭窄、'significant' - 50%以上の狭窄。
狭窄スコア分類では, 従来の検査結果と比較して, 80%の精度で精度が向上した。
論文 参考訳(メタデータ) (2020-01-23T15:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。