論文の概要: Fully automated analysis of muscle architecture from B-mode ultrasound
images with deep learning
- arxiv url: http://arxiv.org/abs/2009.04790v1
- Date: Thu, 10 Sep 2020 11:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 04:04:54.595650
- Title: Fully automated analysis of muscle architecture from B-mode ultrasound
images with deep learning
- Title(参考訳): 深層学習を用いたBモード超音波画像からの筋構造自動解析
- Authors: Neil J. Cronin, Taija Finni, Olivier Seynnes
- Abstract要約: 我々は深部神経回路を訓練し,ラベル付き筋骨格超音波画像を用いて筋線維とアポニューロオースを検出する。
手動解析と2つの既存の半自動解析手法を用いて得られた画像と比較した。
本手法は完全に自動化され,オープンソースであり,単一画像やビデオから筋長,陰茎角,筋厚を推定できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: B-mode ultrasound is commonly used to image musculoskeletal tissues, but one
major bottleneck is data interpretation, and analyses of muscle thickness,
pennation angle and fascicle length are often still performed manually. In this
study we trained deep neural networks (based on U-net) to detect muscle
fascicles and aponeuroses using a set of labelled musculoskeletal ultrasound
images. We then compared neural network predictions on new, unseen images to
those obtained via manual analysis and two existing semi/automated analysis
approaches (SMA and Ultratrack). With a GPU, inference time for a single image
with the new approach was around 0.7s, compared to 4.6s with a CPU. Our method
detects the locations of the superficial and deep aponeuroses, as well as
multiple fascicle fragments per image. For single images, the method gave
similar results to those produced by a non-trainable automated method (SMA;
mean difference in fascicle length: 1.1 mm) or human manual analysis (mean
difference: 2.1 mm). Between-method differences in pennation angle were within
1$^\circ$, and mean differences in muscle thickness were less than 0.2 mm.
Similarly, for videos, there was strong overlap between the results produced
with Ultratrack and our method, with a mean ICC of 0.73, despite the fact that
the analysed trials included hundreds of frames. Our method is fully automated
and open source, and can estimate fascicle length, pennation angle and muscle
thickness from single images or videos, as well as from multiple superficial
muscles. We also provide all necessary code and training data for custom model
development.
- Abstract(参考訳): Bモード超音波は筋骨格組織を画像化するのに一般的に用いられるが、大きなボトルネックはデータの解釈であり、筋肉の厚み、陰茎角、筋膜長の分析は手動で行うことが多い。
本研究では,筋骨格超音波画像を用いた深部神経回路(U-netをベースとした)の訓練を行った。
次に,新たに取得した画像に対するニューラルネットワークの予測を,手作業による解析と,既存の2つの半自動解析手法(smaとultratrack)による予測と比較した。
gpuでは、新しいアプローチで1つの画像の推論時間は0.7sで、cpuでは4.6sだった。
本手法は表面および深部アポニューロスの位置を検知し,画像毎に複数のファシクル断片を抽出する。
単一画像の場合、この手法は訓練不能な自動化法(SMA、ファシクルの長さの平均差:1.1mm)や人手による分析(平均差:2.1mm)と類似した結果を得た。
方法間差は1$^\circ$以下であり,筋肉厚の平均差は0.2mm以下であった。
同様に、ビデオの場合、Ultratrackと我々の方法で生成された結果の間には強い重なりがあり、平均ICCは0.73であり、分析された試験には数百フレームが含まれていた。
本手法は完全に自動化され,オープンソースであり,単一画像やビデオ,および複数の表面筋から筋長,陰茎角,筋厚を推定できる。
カスタムモデル開発に必要なコードやトレーニングデータもすべて提供しています。
関連論文リスト
- Vascular Segmentation of Functional Ultrasound Images using Deep Learning [0.0]
機能的超音波(fUS)画像のための,最初のディープラーニングベースセグメンテーションツールを紹介する。
競合セグメンテーション性能を90%の精度で達成し、71%の堅牢性と0.59のIUをfUSスタックから100フレームの時間フレームで実現した。
この研究は、ローカライゼーション顕微鏡に代わる非侵襲的で費用効果の高い代替手段を提供し、fUSデータの解釈を強化し、血管機能の理解を改善している。
論文 参考訳(メタデータ) (2024-10-28T09:00:28Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Towards Automatic Abdominal MRI Organ Segmentation: Leveraging Synthesized Data Generated From CT Labels [0.5277756703318045]
腹部の臓器を正確に分断する能力はMRI(MRI)スキャンでは依然として困難である。
我々は、CTラベルマップを利用してトレーニング中に合成画像を生成する、モダリティ非依存領域ランダム化アプローチを活用する。
MRデータを用いた完全教師付きセグメンテーション法と比較した。
論文 参考訳(メタデータ) (2024-03-22T20:38:40Z) - Multi-Task Learning Approach for Unified Biometric Estimation from Fetal
Ultrasound Anomaly Scans [0.8213829427624407]
本稿では,頭部,腹部,大腿骨に領域を分類するマルチタスク学習手法を提案する。
頭部周囲の平均絶対誤差は1.08mm,腹部周囲は1.44mm,大腿骨骨長は1.10mm,分類精度は99.91%であった。
論文 参考訳(メタデータ) (2023-11-16T06:35:02Z) - Multi-scale Multi-site Renal Microvascular Structures Segmentation for
Whole Slide Imaging in Renal Pathology [4.743463035587953]
Omni-Segは,マルチサイト,マルチスケールのトレーニングデータを活用する新しい動的ネットワーク手法である。
我々は、HuBMAPとNEPTUNEという2つのデータセットの画像を用いて、特異なディープネットワークを訓練する。
提案手法は,腎微小血管構造の定量的解析のための強力な計算ツールを腎病理医に提供する。
論文 参考訳(メタデータ) (2023-08-10T16:26:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic spinal curvature measurement on ultrasound spine images using
Faster R-CNN [26.41810438716421]
本研究の目的は、脊椎ラミナを検出するためのFaster R-CNNに基づく完全な自動フレームワークを構築することである。
本フレームワークは,1) 超音波コロナ画像上で各ラミナ対を同定・位置決めするラミナ検出器,2) 脊柱曲率推定器の2つの密接な連結モジュールから構成された。
論文 参考訳(メタデータ) (2022-04-17T12:09:29Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。