論文の概要: Automatic Probe Movement Guidance for Freehand Obstetric Ultrasound
- arxiv url: http://arxiv.org/abs/2007.04480v1
- Date: Wed, 8 Jul 2020 23:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 09:54:20.456866
- Title: Automatic Probe Movement Guidance for Freehand Obstetric Ultrasound
- Title(参考訳): フリーハンド超音波における自動プローブ運動誘導法
- Authors: Richard Droste, Lior Drukker, Aris T. Papageorghiou, J. Alison Noble
- Abstract要約: このシステムは、プローブに取り付けられた慣性測定ユニット(IMU)の超音波ビデオ信号と運動信号を受信する人工ニューラルネットワークを用いる。
US-GuideNetと呼ばれるネットワークは、標準的な平面位置への移動(ゴール予測)または、専門家のソノグラフィーが実行する次の動きを予測する。
- 参考スコア(独自算出の注目度): 4.893896929103368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first system that provides real-time probe movement guidance
for acquiring standard planes in routine freehand obstetric ultrasound
scanning. Such a system can contribute to the worldwide deployment of obstetric
ultrasound scanning by lowering the required level of operator expertise. The
system employs an artificial neural network that receives the ultrasound video
signal and the motion signal of an inertial measurement unit (IMU) that is
attached to the probe, and predicts a guidance signal. The network termed
US-GuideNet predicts either the movement towards the standard plane position
(goal prediction), or the next movement that an expert sonographer would
perform (action prediction). While existing models for other ultrasound
applications are trained with simulations or phantoms, we train our model with
real-world ultrasound video and probe motion data from 464 routine clinical
scans by 17 accredited sonographers. Evaluations for 3 standard plane types
show that the model provides a useful guidance signal with an accuracy of 88.8%
for goal prediction and 90.9% for action prediction.
- Abstract(参考訳): そこで本研究では, 標準平面獲得のためのリアルタイムプローブ移動指導を行う最初のシステムを提案する。
このようなシステムは、オペレーターの専門知識のレベルを低くすることで、世界中の産科超音波スキャンの展開に寄与することができる。
本システムは、プローブに取り付けられた慣性測定ユニット(IMU)の超音波ビデオ信号と運動信号を受信し、誘導信号を予測する人工ニューラルネットワークを用いる。
US-GuideNetと呼ばれるネットワークは、標準平面位置への移動(ゴール予測)または専門家のソノグラフィーが実行する次の動き(アクション予測)を予測する。
他の超音波応用のための既存のモデルはシミュレーションやファントムで訓練されているが、実際の超音波ビデオを用いてモデルを訓練し、17人のソノグラフィーによる464の定期的な臨床スキャンからプローブ運動データを収集する。
3種類の標準平面に対する評価は、このモデルが目標予測に88.8%、行動予測に90.9%の精度で有用な誘導信号を提供することを示している。
関連論文リスト
- Enhancing Surgical Robots with Embodied Intelligence for Autonomous Ultrasound Scanning [24.014073238400137]
超音波ロボットは、医療診断や早期疾患スクリーニングにますます利用されている。
現在の超音波ロボットは人間の意図や指示を理解する知性に欠けています。
本研究では,超音波ロボットに大規模言語モデルとドメイン知識を付加した新しい超音波エンボディードインテリジェンスシステムを提案する。
論文 参考訳(メタデータ) (2024-05-01T11:39:38Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Training-free image style alignment for self-adapting domain shift on
handheld ultrasound devices [54.476120039032594]
本稿では,ハンドヘルドデバイスデータのスタイルを標準デバイスと整合させるための,トレーニングフリーなイメージスタイルアライメント(TISA)フレームワークを提案する。
TISAは、余分な訓練なしにハンドヘルドデバイスイメージを直接推測することができ、臨床応用に適している。
論文 参考訳(メタデータ) (2024-02-17T07:15:23Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Identifying Visible Tissue in Intraoperative Ultrasound Images during
Brain Surgery: A Method and Application [1.4408275800058263]
術中超音波検査は, 必要なビゾタクタクタブル・タスクである。
オペレーターは超音波の視点を同時にローカライズし、プローブのポーズを手動で調整する必要がある。
超音波プローブと組織接触の解析を可能にする可視組織同定法を提案する。
論文 参考訳(メタデータ) (2023-06-01T23:06:14Z) - Localizing Scan Targets from Human Pose for Autonomous Lung Ultrasound
Imaging [61.60067283680348]
新型コロナウイルス(COVID-19)の世界的なパンデミックの出現に伴い、超音波画像を完全に自動化する必要がある。
本稿では,学習型コンピュータビジョン技術を取り入れた,視覚に基づくデータ駆動方式を提案する。
本手法は、プローブ位置決めのための15.52mm(9.47mm)、プローブ方位のための4.32(3.69deg)の精度を達成し、全走査目標に対する誤差閾値25mm以下で成功率を80%以上とした。
論文 参考訳(メタデータ) (2022-12-15T14:34:12Z) - Learning Ultrasound Scanning Skills from Human Demonstrations [6.971573270058377]
人間の実演から超音波スキャン技術を取得するための学習ベースのフレームワークを提案する。
モデルのパラメータは、熟練したソノグラフィーのデモンストレーションから収集したデータを用いて学習される。
提案手法のロバスト性は,ソノグラフィーによる実データを用いて検証した。
論文 参考訳(メタデータ) (2021-11-09T12:29:25Z) - Learning Robotic Ultrasound Scanning Skills via Human Demonstrations and
Guided Explorations [12.894853456160924]
本研究では,人間の実演からロボット超音波スキャン技術を学ぶための学習に基づくアプローチを提案する。
まず,ロボット超音波スキャン技術を高次元マルチモーダルモデルにカプセル化し,超音波画像,プローブのポーズ・配置,接触力を考慮した。
第2に、経験者超音波医師のデモンストレーションから収集したトレーニングデータを用いて、模倣学習の力を利用してマルチモーダルモデルを訓練する。
論文 参考訳(メタデータ) (2021-11-02T14:38:09Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Assisted Probe Positioning for Ultrasound Guided Radiotherapy Using
Image Sequence Classification [55.96221340756895]
前立腺外照射療法における経皮的超音波画像誘導は, 患者設定中の各セッションにおけるプローブと前立腺の整合性を必要とする。
本研究では,画像とプローブ位置データの共同分類により,高精度なプローブ配置を確保する方法を示す。
マルチ入力マルチタスクアルゴリズムを用いて、光学的追跡された超音波プローブからの空間座標データを、繰り返しニューラルネットワークを用いて画像クラスシファイアと組み合わせ、リアルタイムで2セットの予測を生成する。
このアルゴリズムは平均(標準偏差)3.7$circ$ (1.2$circ$)の範囲内で最適なプローブアライメントを同定する。
論文 参考訳(メタデータ) (2020-10-06T13:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。