論文の概要: Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback
- arxiv url: http://arxiv.org/abs/2306.07129v2
- Date: Wed, 12 Jul 2023 09:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 18:58:55.521676
- Title: Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback
- Title(参考訳): 軌道誘導と針先力フィードバックを用いた協調型ロボット生検
- Authors: Robin Mieling, Maximilian Neidhardt, Sarah Latus, Carolin Stapper,
Stefan Gerlach, Inga Kniep, Axel Heinemann, Benjamin Ondruschka and Alexander
Schlaefer
- Abstract要約: 本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムについて述べる。
リアルタイムデータ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針の設計。
膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
- 参考スコア(独自算出の注目度): 49.32653090178743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The diagnostic value of biopsies is highly dependent on the placement of
needles. Robotic trajectory guidance has been shown to improve needle
positioning, but feedback for real-time navigation is limited. Haptic display
of needle tip forces can provide rich feedback for needle navigation by
enabling localization of tissue structures along the insertion path. We present
a collaborative robotic biopsy system that combines trajectory guidance with
kinesthetic feedback to assist the physician in needle placement. The robot
aligns the needle while the insertion is performed in collaboration with a
medical expert who controls the needle position on site. We present a needle
design that senses forces at the needle tip based on optical coherence
tomography and machine learning for real-time data processing. Our robotic
setup allows operators to sense deep tissue interfaces independent of
frictional forces to improve needle placement relative to a desired target
structure. We first evaluate needle tip force sensing in ex-vivo tissue in a
phantom study. We characterize the tip forces during insertions with constant
velocity and demonstrate the ability to detect tissue interfaces in a
collaborative user study. Participants are able to detect 91% of ex-vivo tissue
interfaces based on needle tip force feedback alone. Finally, we demonstrate
that even smaller, deep target structures can be accurately sampled by
performing post-mortem in situ biopsies of the pancreas.
- Abstract(参考訳): 生検の診断的価値は針の位置に大きく依存する。
針の位置決めを改善するために,ロボット軌道誘導法が提案されているが,リアルタイムナビゲーションのフィードバックは限られている。
針先端力の触覚表示は、挿入経路に沿って組織構造を局在させることにより、針ナビゲーションに豊富なフィードバックを与えることができる。
本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムを提案する。
ロボットは針を整列させ、挿入は現場で針の位置を制御する医療専門家と協調して行われる。
実時間データ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針設計を提案する。
我々のロボット装置は、摩擦力とは無関係に深部組織界面を感知し、所望の標的構造に対して針の配置を改善する。
まず,前生体組織の針先端力センシングをファントム実験で評価した。
本研究では, 挿入時の先端力を一定速度で特徴付けるとともに, 組織界面の検出能力を示す。
参加者は針先からのフィードバックだけで、元の生体組織インターフェースの91%を検出できる。
最後に,膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
関連論文リスト
- EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Medical needle tip tracking based on Optical Imaging and AI [0.0]
本論文は針先リアルタイム追跡のための革新的な技術であり,針挿入指導の強化を目的としている。
具体的には,光ファイバー付針を用いた散乱画像の作成を中心に展開し,CNNに基づくアルゴリズムを用いて針先端の位置と向きをリアルタイムで推定する手法を提案する。
平均大腿動脈半径が4mmから5mmと推定され,大腿動脈挿入術における針ガイドの精度が高い可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-28T10:30:08Z) - Tissue Classification During Needle Insertion Using Self-Supervised
Contrastive Learning and Optical Coherence Tomography [53.38589633687604]
針先端で取得した複雑なCT信号の位相および強度データから組織を分類するディープニューラルネットワークを提案する。
トレーニングセットの10%で、提案した事前学習戦略により、モデルが0.84のF1スコアを達成するのに対して、モデルが0.60のF1スコアを得るのに対して、モデルが0.84のF1スコアを得るのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T14:11:04Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - DeepRGVP: A Novel Microstructure-Informed Supervised Contrastive
Learning Framework for Automated Identification Of The Retinogeniculate
Pathway Using dMRI Tractography [49.36718605738193]
網膜発生経路(Retinogeniculate pathway、RGVP)は、網膜から外側の原核への視覚情報を伝達する役割を持つ。
我々は,dMRIトラクトログラフィーデータからRGVPを高速かつ正確な同定を可能にする,最初のディープラーニングフレームワークであるDeepRGVPを提案する。
論文 参考訳(メタデータ) (2022-11-15T13:14:49Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - A CNN Segmentation-Based Approach to Object Detection and Tracking in
Ultrasound Scans with Application to the Vagus Nerve Detection [17.80391011147757]
超音波スキャンにおける特定の解剖学的対象構造を自動的に検出・追跡するディープラーニングフレームワークを提案する。
私たちのフレームワークは、被写体や撮像装置間で正確で堅牢で、リアルタイムに動作し、大規模なトレーニングセットを必要としないように設計されています。
このフレームワークを2つの異なる超音波データセット上でテストし、Vagus神経を検出し、追跡することを目的として、現在最先端のリアルタイム物体検出ネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-25T19:12:46Z) - A Recurrent Neural Network Approach to Roll Estimation for Needle
Steering [5.556129660751467]
操作可能な針はボディのターゲット療法を提供するための有望な技術です。
現在のセンサーは、完全な向き情報を提供したり、針が治療を行う能力に干渉したりしない。
LSTMニューラルネットワークを利用して針先端の向きをオンラインで推定するモデルレス学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T03:40:00Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Towards Augmented Reality-based Suturing in Monocular Laparoscopic
Training [0.5707453684578819]
本研究では,シリコーンパッド上での腹腔鏡下トレーニング結果を高めるために,定量的かつ質的な視覚表現を備えた拡張現実環境を提案する。
これは、マルチクラスセグメンテーションと深度マップ予測を実行するマルチタスク教師付きディープニューラルネットワークによって実現されている。
本発明のネットワークは、手術針分割用ダイススコア0.67、針ホルダ計器セグメンテーション0.81、深さ推定用平均絶対誤差6.5mmを達成する。
論文 参考訳(メタデータ) (2020-01-19T19:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。