論文の概要: Anatomical Region Recognition and Real-time Bone Tracking Methods by Dynamically Decoding A-Mode Ultrasound Signals
- arxiv url: http://arxiv.org/abs/2405.19542v2
- Date: Fri, 31 May 2024 11:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 18:54:00.209331
- Title: Anatomical Region Recognition and Real-time Bone Tracking Methods by Dynamically Decoding A-Mode Ultrasound Signals
- Title(参考訳): Aモード超音波信号の動的復号化による解剖学的領域認識とリアルタイム骨追跡法
- Authors: Bangyu Lan, Stefano Stramigioli, Kenan Niu,
- Abstract要約: 本稿では,Aモード超音波信号を用いた解剖学的領域認識と骨追跡のためのディープラーニング手法を提案する。
このアルゴリズムは、同時に骨追跡を行い、Aモード超音波トランスデューサが置かれた解剖学的領域を特定することができる。
この実験は解剖学的領域の分類において97%の精度を示し、動的追跡条件下では0.5$pm$1mmの精度を示した。
- 参考スコア(独自算出の注目度): 4.595636071139437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate bone tracking is crucial for kinematic analysis in orthopedic surgery and prosthetic robotics. Traditional methods (e.g., skin markers) are subject to soft tissue artifacts, and the bone pins used in surgery introduce the risk of additional trauma and infection. For electromyography (EMG), its inability to directly measure joint angles requires complex algorithms for kinematic estimation. To address these issues, A-mode ultrasound-based tracking has been proposed as a non-invasive and safe alternative. However, this approach suffers from limited accuracy in peak detection when processing received ultrasound signals. To build a precise and real-time bone tracking approach, this paper introduces a deep learning-based method for anatomical region recognition and bone tracking using A-mode ultrasound signals, specifically focused on the knee joint. The algorithm is capable of simultaneously performing bone tracking and identifying the anatomical region where the A-mode ultrasound transducer is placed. It contains the fully connection between all encoding and decoding layers of the cascaded U-Nets to focus only on the signal region that is most likely to have the bone peak, thus pinpointing the exact location of the peak and classifying the anatomical region of the signal. The experiment showed a 97% accuracy in the classification of the anatomical regions and a precision of around 0.5$\pm$1mm under dynamic tracking conditions for various anatomical areas surrounding the knee joint. In general, this approach shows great potential beyond the traditional method, in terms of the accuracy achieved and the recognition of the anatomical region where the ultrasound has been attached as an additional functionality.
- Abstract(参考訳): 整形外科と補綴ロボットの運動解析には正確な骨追跡が不可欠である。
従来の方法(例えば皮膚マーカー)は軟部組織のアーティファクトであり、手術で使用される骨のピンは、追加の外傷や感染のリスクをもたらす。
エレクトロミオグラフィー(EMG)では、関節角度を直接測定できないため、運動学的推定のための複雑なアルゴリズムが必要である。
これらの問題に対処するため、Aモード超音波による追跡は非侵襲的で安全な代替手段として提案されている。
しかし、この手法は、受信した超音波信号を処理する際にピーク検出の精度が限られている。
本稿では,Aモード超音波信号を用いた解剖学的領域認識と骨追跡のための深層学習手法を提案する。
このアルゴリズムは、同時に骨追跡を行い、Aモード超音波トランスデューサが置かれた解剖学的領域を特定することができる。
これは、カスケードされたU-Netのすべてのエンコーディング層とデコード層の間の完全な接続を含み、骨のピークを持つ可能性が高い信号領域のみに焦点を合わせ、ピークの正確な位置を特定し、信号の解剖学的領域を分類する。
実験では, 関節周囲の解剖学的領域に対する動的追跡条件下で, 解剖学的領域の分類において97%の精度, 約0.5$\pm$1mmの精度を示した。
一般に, 超音波が付加機能として付加された解剖学的領域の精度と認識において, 従来の手法を超える大きな可能性を示す。
関連論文リスト
- Class-Aware Cartilage Segmentation for Autonomous US-CT Registration in Robotic Intercostal Ultrasound Imaging [39.597735935731386]
形状制約後処理を施したクラスアウェア軟骨骨分節ネットワークを提示し, 患者固有の骨骨格を捕捉する。
一般的なテンプレートから個々の患者へ、宿主間走査経路をマッピングするために、密度の高い骨格グラフに基づく非剛性登録が提示される。
提案手法は,CTテンプレートから個々の患者へのパスを,頑健かつ正確にマッピングできることを示す。
論文 参考訳(メタデータ) (2024-06-06T14:15:15Z) - Autonomous Path Planning for Intercostal Robotic Ultrasound Imaging Using Reinforcement Learning [45.5123007404575]
胸腔鏡検査は, 皮下リブケージの音響的影が原因で, 依然として困難である。
本研究は, 内臓器病変のモニタリングを行うために, リブ間の走査経路を計画するための強化学習手法を提案する。
ランダムに定義された単一または複数の走査ターゲットを持つ未確認のCTに対して実験が実施されている。
論文 参考訳(メタデータ) (2024-04-15T16:52:53Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Deep Learning based acoustic measurement approach for robotic
applications on orthopedics [4.399658501226972]
Aモード超音波(US)による骨追跡の精度向上のための新しい深層学習構造を提案する。
本研究では,Aモード超音波(US)による骨追跡の精度を向上させるための新しい深層学習構造を提案する。
論文 参考訳(メタデータ) (2024-03-09T11:09:45Z) - The automatic detection of lumber anatomy in epidural injections for
ultrasound guidance [0.16385815610837165]
ラマー・ダグラス・ペッカー法とハフ変換を併用した形態素に基づく骨の伸長・検出法を提案する。
提案アルゴリズムは, 人工骨と実骨の超音波画像を用いて実験を行った。
提案手法は, 椎骨の対角形状とそれに対応する硬膜外深さを高速に検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-07T20:11:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Orientation-guided Graph Convolutional Network for Bone Surface
Segmentation [51.51690515362261]
骨表面をセグメント化しながら接続性を向上する指向性グラフ畳み込みネットワークを提案する。
提案手法は,接続距離を5.01%向上させる。
論文 参考訳(メタデータ) (2022-06-16T23:01:29Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z) - Delineating Bone Surfaces in B-Mode Images Constrained by Physics of
Ultrasound Propagation [4.669073579457748]
超音波における骨表面のデライン化は, 診断, 手術計画, 術後の整形外科的経過に有意な関連がある。
骨表面のデライン化を目的として,超音波伝搬の物理を因子グラフの定式化にエンコードする手法を提案する。
論文 参考訳(メタデータ) (2020-01-07T12:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。