論文の概要: An interpretable object detection based model for the diagnosis of
neonatal lung diseases using Ultrasound images
- arxiv url: http://arxiv.org/abs/2105.10081v1
- Date: Fri, 21 May 2021 01:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:27:44.367056
- Title: An interpretable object detection based model for the diagnosis of
neonatal lung diseases using Ultrasound images
- Title(参考訳): 超音波画像を用いた新生児肺疾患診断のための解釈可能な物体検出モデル
- Authors: Rodina Bassiouny (1), Adel Mohamed (2), Karthi Umapathy (1) and Naimul
Khan (1) ((1) Ryerson University, Toronto, Canada, (2) Mount Sinai Hospital,
University of Toronto, Toronto, Canada)
- Abstract要約: 肺超音波(LUS)は新生児のさまざまな肺疾患の診断とモニタリングにますます利用されている。
異なる呼吸器疾患で見られる混合アーティファクトパターンは、オペレーターによるLUS可読性を制限する可能性がある。
そこで本研究では,特定の肺疾患と容易に関連付けることのできる7つの意義あるLUS特徴を抽出するためのユニークなアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last few decades, Lung Ultrasound (LUS) has been increasingly used
to diagnose and monitor different lung diseases in neonates. It is a non
invasive tool that allows a fast bedside examination while minimally handling
the neonate. Acquiring a LUS scan is easy, but understanding the artifacts
concerned with each respiratory disease is challenging. Mixed artifact patterns
found in different respiratory diseases may limit LUS readability by the
operator. While machine learning (ML), especially deep learning can assist in
automated analysis, simply feeding the ultrasound images to an ML model for
diagnosis is not enough to earn the trust of medical professionals. The
algorithm should output LUS features that are familiar to the operator instead.
Therefore, in this paper we present a unique approach for extracting seven
meaningful LUS features that can be easily associated with a specific
pathological lung condition: Normal pleura, irregular pleura, thick pleura,
Alines, Coalescent B-lines, Separate B-lines and Consolidations. These
artifacts can lead to early prediction of infants developing later respiratory
distress symptoms. A single multi-class region proposal-based object detection
model faster-RCNN (fRCNN) was trained on lower posterior lung ultrasound videos
to detect these LUS features which are further linked to four common neonatal
diseases. Our results show that fRCNN surpasses single stage models such as
RetinaNet and can successfully detect the aforementioned LUS features with a
mean average precision of 86.4%. Instead of a fully automatic diagnosis from
images without any interpretability, detection of such LUS features leave the
ultimate control of diagnosis to the clinician, which can result in a more
trustworthy intelligent system.
- Abstract(参考訳): 過去数十年間、Lung Ultrasound(LUS)は新生児のさまざまな肺疾患の診断とモニタリングに利用されてきた。
新生児を最小限に扱いながら、速いベッドサイド検査を可能にする非侵襲的な道具である。
LUSスキャンの取得は簡単だが、各呼吸器疾患に関連するアーティファクトを理解するのは難しい。
異なる呼吸器疾患で見られる混合アーティファクトパターンは、オペレーターによるLUS可読性を制限する可能性がある。
機械学習(ML)、特にディープラーニングは自動分析を支援するが、診断のために超音波画像をMLモデルに供給するだけでは、医療専門家の信頼を得るには不十分である。
アルゴリズムはオペレータになじみのあるlus機能を出力すべきである。
そこで本研究では, 正常胸膜, 不規則胸膜, 肥厚胸膜, Alines, Coalescent B-lines, 分別B-lines, コンソリデーションという, 特定の病的肺疾患と容易に関連付けることのできる, 有意義なLUS特徴を抽出するためのユニークなアプローチを提案する。
これらの人工物は、後発の呼吸困難症状を発症する幼児の早期予測につながる可能性がある。
単一マルチクラス領域提案型オブジェクト検出モデルであるFRCNN(Fast-RCNN)を,低位肺後部超音波画像を用いて訓練し,これらLUSの特徴を同定した。
以上の結果から,fRCNNはRetinaNetなどの単一ステージモデルを超え,平均86.4%の精度で上記のLUS特徴を検出することができた。
解釈不可能な画像からの完全な自動診断の代わりに、そのようなLUS特徴の検出は、診断の最終的な制御を臨床医に任せる。
関連論文リスト
- Using Explainable AI for EEG-based Reduced Montage Neonatal Seizure Detection [2.206534289238751]
新生児発作検出のゴールドスタンダードは、現在連続したビデオEEGモニタリングに依存している。
脳波モンタージュを低減した新生児発作検出プロセスを自動化するための新しい説明可能な深層学習モデルを提案する。
提案したモデルは、それぞれ曲線下面積(AUC)とリコールにおける8.31%と42.86%の絶対的な改善を達成している。
論文 参考訳(メタデータ) (2024-06-04T10:53:56Z) - Breast Ultrasound Report Generation using LangChain [58.07183284468881]
本稿では,Large Language Models (LLM) を用いたLangChainによる複数の画像解析ツールを胸部報告プロセスに統合することを提案する。
本手法は,超音波画像から関連する特徴を正確に抽出し,臨床的文脈で解釈し,包括的で標準化された報告を生成する。
論文 参考訳(メタデータ) (2023-12-05T00:28:26Z) - Using Spatio-Temporal Dual-Stream Network with Self-Supervised Learning
for Lung Tumor Classification on Radial Probe Endobronchial Ultrasound Video [0.0]
肺がんの生検の過程で、医師はリアルタイム超音波画像を使用して、サンプリングに適した病変を見つける。
これまでの研究では良性肺病変と悪性肺病変を効果的に区別するために2D畳み込みニューラルネットワークを用いてきた。
本研究では,3次元ニューラルネットワークに基づく自動診断システムを設計する。
論文 参考訳(メタデータ) (2023-05-04T10:39:37Z) - covEcho Resource constrained lung ultrasound image analysis tool for
faster triaging and active learning [2.4432369908176543]
リアルタイムの軽量なアクティブラーニングベースのアプローチは、新型コロナウイルス患者でより高速なトリアージを実現するために提案されている。
提案手法は、LUSランドマークの予測において平均平均精度(mAP)が66%、IoU(Intersection over Union)閾値が0.5である。
14MBの軽量YOLOv5sネットワークは、Quadro P4000 GPUで動作しながら123FPSを達成する。
論文 参考訳(メタデータ) (2022-06-21T08:38:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Detecting Hypo-plastic Left Heart Syndrome in Fetal Ultrasound via
Disease-specific Atlas Maps [18.37280146564769]
低形成性左心症候群の自動診断のための解釈可能なアトラス・ラーニング・セグメンテーション法を提案する。
本稿では,最近導入された画像・空間トランスフォーマーネットワーク(Atlas-ISTN)を,感作アトラスの病原体生成を可能にするフレームワークに拡張することを提案する。
論文 参考訳(メタデータ) (2021-07-06T14:31:19Z) - Learning the Imaging Landmarks: Unsupervised Key point Detection in Lung
Ultrasound Videos [0.0]
肺超音波(LUS)は、肺感染症の持続的および定期的なモニタリングのための画像診断法として、ますます人気が高まっている。
LUSを用いたトリアージのための臨床医が評価する重要なランドマークは、胸膜、A線、B線である。
この研究は、新型コロナウイルス(COVID-19)感染のさまざまな段階でのLUSビデオで重要なLUSのランドマークを教師なしで検出する試みとしては、今回が初めてだ。
論文 参考訳(メタデータ) (2021-06-13T13:27:12Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。