論文の概要: Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration
- arxiv url: http://arxiv.org/abs/2011.07785v1
- Date: Mon, 16 Nov 2020 08:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:50:37.685218
- Title: Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration
- Title(参考訳): デモから学習した眼内手術用ツールを自律的に操作する
- Authors: Ji Woong Kim, Changyan He, Muller Urias, Peter Gehlbach, Gregory D.
Hager, Iulian Iordachita, Marin Kobilarov
- Abstract要約: 本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
- 参考スコア(独自算出の注目度): 28.720332497794292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental challenge in retinal surgery is safely navigating a surgical
tool to a desired goal position on the retinal surface while avoiding damage to
surrounding tissues, a procedure that typically requires tens-of-microns
accuracy. In practice, the surgeon relies on depth-estimation skills to
localize the tool-tip with respect to the retina in order to perform the
tool-navigation task, which can be prone to human error. To alleviate such
uncertainty, prior work has introduced ways to assist the surgeon by estimating
the tool-tip distance to the retina and providing haptic or auditory feedback.
However, automating the tool-navigation task itself remains unsolved and
largely unexplored. Such a capability, if reliably automated, could serve as a
building block to streamline complex procedures and reduce the chance for
tissue damage. Towards this end, we propose to automate the tool-navigation
task by learning to mimic expert demonstrations of the task. Specifically, a
deep network is trained to imitate expert trajectories toward various locations
on the retina based on recorded visual servoing to a given goal specified by
the user. The proposed autonomous navigation system is evaluated in simulation
and in physical experiments using a silicone eye phantom. We show that the
network can reliably navigate a needle surgical tool to various desired
locations within 137 microns accuracy in physical experiments and 94 microns in
simulation on average, and generalizes well to unseen situations such as in the
presence of auxiliary surgical tools, variable eye backgrounds, and brightness
conditions.
- Abstract(参考訳): 網膜外科における基本的な課題は、手術器具を、周囲組織への損傷を避けながら、網膜表面の所望の目標位置まで安全に移動させることである。
実際には、外科医は、ツールナビゲーションタスクを実行するために、網膜に関してツールチップをローカライズするために、深さ推定スキルに依存している。
このような不確実性を軽減するために、先行研究は、網膜へのツールチップ距離を推定し、触覚的または聴覚的フィードバックを提供することで、外科医を支援する方法を導入した。
しかし、ツールナビゲーションタスク自体の自動化は未解決であり、ほとんど探索されていない。
このような機能は、確実に自動化できれば、複雑な手順を合理化し、組織損傷の機会を減らすためのビルディングブロックとして機能することができる。
そこで本研究では,タスクの専門的な実演を模倣するために学習し,ツールナビゲーションタスクの自動化を提案する。
具体的には、ユーザが指定した目標に対して、記録された視覚サーボに基づいて、網膜の様々な位置に専門家の軌跡を模倣するようにディープネットワークを訓練する。
提案する自律ナビゲーションシステムはシミュレーションおよびシリコーンアイファントムを用いた物理実験で評価されている。
実験では, 針状手術用具を137ミクロン, シミュレーションで94ミクロンの範囲内, 様々な所望の所まで平均で確実に移動でき, 補助手術用具の有無, 可変眼球背景, 明るさ条件など, 目に見えない状況によく対応できることを示した。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback [49.32653090178743]
本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムについて述べる。
リアルタイムデータ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針の設計。
膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
論文 参考訳(メタデータ) (2023-06-12T14:07:53Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Autonomous Intraluminal Navigation of a Soft Robot using
Deep-Learning-based Visual Servoing [13.268863900187025]
そこで本研究では,3Dプリント型内視鏡ソフトロボットによる光内ナビゲーションのためのシナジーソリューションを提案する。
畳み込みニューラルネットワーク(CNN)に基づくビジュアルサーボは、自律的なナビゲーションタスクを達成するために使用される。
提案するロボットは、異なる経路構成の解剖学的ファントムで検証される。
論文 参考訳(メタデータ) (2022-07-01T13:17:45Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction [25.865648975312407]
深層学習を外科的知覚に活用する。
我々は,効率的な特徴抽出が可能なディープニューラルネットワークを組織再構成と機器のポーズ推定プロセスに統合した。
本フレームワークは, 深層学習を特徴抽出に用いることにより, 手術環境における最先端の追跡性能を実現する。
論文 参考訳(メタデータ) (2020-03-07T00:08:30Z) - Registration made easy -- standalone orthopedic navigation with HoloLens [27.180079923996406]
そこで本研究では,Microsoft HoloLens上で動作するペプシクルスクリュー配置のための,術中表面のデジタル化と直感的ホログラフィックナビゲーションを併用した手術ナビゲーション手法を提案する。
ファントム実験の予備的な結果は、この方法が臨床精度の要件を満たす可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-01-17T09:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。