論文の概要: Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback
- arxiv url: http://arxiv.org/abs/2306.07129v2
- Date: Wed, 12 Jul 2023 09:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 18:58:55.521676
- Title: Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback
- Title(参考訳): 軌道誘導と針先力フィードバックを用いた協調型ロボット生検
- Authors: Robin Mieling, Maximilian Neidhardt, Sarah Latus, Carolin Stapper,
Stefan Gerlach, Inga Kniep, Axel Heinemann, Benjamin Ondruschka and Alexander
Schlaefer
- Abstract要約: 本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムについて述べる。
リアルタイムデータ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針の設計。
膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
- 参考スコア(独自算出の注目度): 49.32653090178743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The diagnostic value of biopsies is highly dependent on the placement of
needles. Robotic trajectory guidance has been shown to improve needle
positioning, but feedback for real-time navigation is limited. Haptic display
of needle tip forces can provide rich feedback for needle navigation by
enabling localization of tissue structures along the insertion path. We present
a collaborative robotic biopsy system that combines trajectory guidance with
kinesthetic feedback to assist the physician in needle placement. The robot
aligns the needle while the insertion is performed in collaboration with a
medical expert who controls the needle position on site. We present a needle
design that senses forces at the needle tip based on optical coherence
tomography and machine learning for real-time data processing. Our robotic
setup allows operators to sense deep tissue interfaces independent of
frictional forces to improve needle placement relative to a desired target
structure. We first evaluate needle tip force sensing in ex-vivo tissue in a
phantom study. We characterize the tip forces during insertions with constant
velocity and demonstrate the ability to detect tissue interfaces in a
collaborative user study. Participants are able to detect 91% of ex-vivo tissue
interfaces based on needle tip force feedback alone. Finally, we demonstrate
that even smaller, deep target structures can be accurately sampled by
performing post-mortem in situ biopsies of the pancreas.
- Abstract(参考訳): 生検の診断的価値は針の位置に大きく依存する。
針の位置決めを改善するために,ロボット軌道誘導法が提案されているが,リアルタイムナビゲーションのフィードバックは限られている。
針先端力の触覚表示は、挿入経路に沿って組織構造を局在させることにより、針ナビゲーションに豊富なフィードバックを与えることができる。
本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムを提案する。
ロボットは針を整列させ、挿入は現場で針の位置を制御する医療専門家と協調して行われる。
実時間データ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針設計を提案する。
我々のロボット装置は、摩擦力とは無関係に深部組織界面を感知し、所望の標的構造に対して針の配置を改善する。
まず,前生体組織の針先端力センシングをファントム実験で評価した。
本研究では, 挿入時の先端力を一定速度で特徴付けるとともに, 組織界面の検出能力を示す。
参加者は針先からのフィードバックだけで、元の生体組織インターフェースの91%を検出できる。
最後に,膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
関連論文リスト
- Bifurcation Identification for Ultrasound-driven Robotic Cannulation [11.50984693836901]
外傷や重篤なケアでは、迅速かつ正確な血管内アクセスが患者の生存の鍵となる。
血管分岐(英: Vessel bifurcations)は、医療処置中のカテーテルや針の安全な配置をガイドする解剖学的ランドマークである。
超音波画像を用いて血管分岐を自律的に抽出するアルゴリズムは存在しない。
本稿では,血管分岐を同定し,自律型ロボット缶詰システムに最適な針挿入部位を提供する新しいアルゴリズムであるBIFURCを紹介する。
論文 参考訳(メタデータ) (2024-09-10T18:53:52Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Medical needle tip tracking based on Optical Imaging and AI [0.0]
本論文は針先リアルタイム追跡のための革新的な技術であり,針挿入指導の強化を目的としている。
具体的には,光ファイバー付針を用いた散乱画像の作成を中心に展開し,CNNに基づくアルゴリズムを用いて針先端の位置と向きをリアルタイムで推定する手法を提案する。
平均大腿動脈半径が4mmから5mmと推定され,大腿動脈挿入術における針ガイドの精度が高い可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-28T10:30:08Z) - Tissue Classification During Needle Insertion Using Self-Supervised
Contrastive Learning and Optical Coherence Tomography [53.38589633687604]
針先端で取得した複雑なCT信号の位相および強度データから組織を分類するディープニューラルネットワークを提案する。
トレーニングセットの10%で、提案した事前学習戦略により、モデルが0.84のF1スコアを達成するのに対して、モデルが0.60のF1スコアを得るのに対して、モデルが0.84のF1スコアを得るのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T14:11:04Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - A CNN Segmentation-Based Approach to Object Detection and Tracking in
Ultrasound Scans with Application to the Vagus Nerve Detection [17.80391011147757]
超音波スキャンにおける特定の解剖学的対象構造を自動的に検出・追跡するディープラーニングフレームワークを提案する。
私たちのフレームワークは、被写体や撮像装置間で正確で堅牢で、リアルタイムに動作し、大規模なトレーニングセットを必要としないように設計されています。
このフレームワークを2つの異なる超音波データセット上でテストし、Vagus神経を検出し、追跡することを目的として、現在最先端のリアルタイム物体検出ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-25T19:12:46Z) - A Recurrent Neural Network Approach to Roll Estimation for Needle
Steering [5.556129660751467]
操作可能な針はボディのターゲット療法を提供するための有望な技術です。
現在のセンサーは、完全な向き情報を提供したり、針が治療を行う能力に干渉したりしない。
LSTMニューラルネットワークを利用して針先端の向きをオンラインで推定するモデルレス学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T03:40:00Z) - Towards Augmented Reality-based Suturing in Monocular Laparoscopic
Training [0.5707453684578819]
本研究では,シリコーンパッド上での腹腔鏡下トレーニング結果を高めるために,定量的かつ質的な視覚表現を備えた拡張現実環境を提案する。
これは、マルチクラスセグメンテーションと深度マップ予測を実行するマルチタスク教師付きディープニューラルネットワークによって実現されている。
本発明のネットワークは、手術針分割用ダイススコア0.67、針ホルダ計器セグメンテーション0.81、深さ推定用平均絶対誤差6.5mmを達成する。
論文 参考訳(メタデータ) (2020-01-19T19:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。