論文の概要: ColibriDoc: An Eye-in-Hand Autonomous Trocar Docking System
- arxiv url: http://arxiv.org/abs/2111.15373v1
- Date: Tue, 30 Nov 2021 13:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 20:55:33.945855
- Title: ColibriDoc: An Eye-in-Hand Autonomous Trocar Docking System
- Title(参考訳): ColibriDoc: アイイン・ハンド自律型トロカードッキングシステム
- Authors: Shervin Dehghani, Michael Sommersperger, Junjie Yang, Benjamin Busam,
Kai Huang, Peter Gehlbach, Iulian Iordachita, Nassir Navab and M. Ali Nasseri
- Abstract要約: コンピュータビジョンとロボットセットアップを組み合わせた,自律型トロカードッキングプラットフォームを提案する。
キューバのColibri(ハミングバード)にインスパイアされたそのくちばしは、視覚だけで花に合わせる。
- 参考スコア(独自算出の注目度): 46.91300647669861
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Retinal surgery is a complex medical procedure that requires exceptional
expertise and dexterity. For this purpose, several robotic platforms are
currently being developed to enable or improve the outcome of microsurgical
tasks. Since the control of such robots is often designed for navigation inside
the eye in proximity to the retina, successful trocar docking and inserting the
instrument into the eye represents an additional cognitive effort, and is,
therefore, one of the open challenges in robotic retinal surgery. For this
purpose, we present a platform for autonomous trocar docking that combines
computer vision and a robotic setup. Inspired by the Cuban Colibri
(hummingbird) aligning its beak to a flower using only vision, we mount a
camera onto the endeffector of a robotic system. By estimating the position and
pose of the trocar, the robot is able to autonomously align and navigate the
instrument towards the Trocar's Entry Point (TEP) and finally perform the
insertion. Our experiments show that the proposed method is able to accurately
estimate the position and pose of the trocar and achieve repeatable autonomous
docking. The aim of this work is to reduce the complexity of robotic setup
preparation prior to the surgical task and therefore, increase the
intuitiveness of the system integration into the clinical workflow.
- Abstract(参考訳): 網膜手術は複雑な医療処置であり、特別な専門知識と器用さを必要とする。
この目的のために、マイクロサージカルタスクの結果を可能または改善するために、いくつかのロボットプラットフォームが現在開発されている。
このようなロボットの制御は、しばしば網膜に近い眼内を航行するために設計されているため、トロカーのドッキングと眼への挿入の成功は、追加の認知的努力であり、したがってロボット網膜手術における課題の1つである。
この目的のために,コンピュータビジョンとロボットのセットアップを組み合わせた自律トローカードッキングのためのプラットフォームを提案する。
キューバのコリトリ(ハチドリ)にインスパイアされ、そのくちばしを視覚だけを使って花に合わせ、ロボットシステムのエンドエフェクターにカメラを取り付けます。
トロカーの位置とポーズを推定することで、ロボットは自動で楽器をトロカーのエントリーポイント(TEP)に向けて移動させ、最後に挿入を行うことができる。
実験の結果,提案手法はトロカーの位置と姿勢を正確に推定し,自律ドッキングを繰り返すことができることがわかった。
本研究の目的は,手術作業に先立ってロボットによる準備作業の複雑さを低減し,臨床ワークフローへのシステム統合の直感性を高めることである。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Teach Me How to Learn: A Perspective Review towards User-centered
Neuro-symbolic Learning for Robotic Surgical Systems [3.5672486441844553]
近年の機械学習の進歩により、ロボットは知覚的非象徴的なレベルの物体を識別できるようになった。
別の解決策は、知覚的非象徴的および概念的象徴的レベルの両方でロボットに教えることである。
本研究は,ロボットの外科的状況に着目した,ユーザ中心のハイブリッド学習パラダイムのコンセプトを提案する。
論文 参考訳(メタデータ) (2023-07-07T21:58:28Z) - Bio-inspired spike-based Hippocampus and Posterior Parietal Cortex
models for robot navigation and environment pseudo-mapping [52.77024349608834]
本研究はスパイクに基づくロボットナビゲーションと環境擬似マッピングシステムを提案する。
海馬は環境状態マップの表現を担い、PPCは局所的な意思決定を担当している。
これはバイオインスパイアされた海馬記憶に基づく動的学習を用いた環境擬似マッピングシステムの最初の実装である。
論文 参考訳(メタデータ) (2023-05-22T10:20:34Z) - Image Guidance for Robot-Assisted Ankle Fracture Repair [0.0]
本研究の目的は、図形再構成のための方向の自動決定のためのソフトウェアの適切な機能を作成し、実証することである。
この製品は、ロボット自体のハードウェアの開発や実装を伴わない。
論文 参考訳(メタデータ) (2023-01-31T07:32:13Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Autonomous Intraluminal Navigation of a Soft Robot using
Deep-Learning-based Visual Servoing [13.268863900187025]
そこで本研究では,3Dプリント型内視鏡ソフトロボットによる光内ナビゲーションのためのシナジーソリューションを提案する。
畳み込みニューラルネットワーク(CNN)に基づくビジュアルサーボは、自律的なナビゲーションタスクを達成するために使用される。
提案するロボットは、異なる経路構成の解剖学的ファントムで検証される。
論文 参考訳(メタデータ) (2022-07-01T13:17:45Z) - Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot [0.0]
本プロジェクトは,ロボットの視覚を動作に結びつけるコンピュータビジョン組み込みシステムを用いて,ロボットを駆動することを目的としている。
このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
論文 参考訳(メタデータ) (2021-01-12T23:52:53Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。