論文の概要: Localising under the drape: proprioception in the era of distributed surgical robotic system
- arxiv url: http://arxiv.org/abs/2510.23512v1
- Date: Mon, 27 Oct 2025 16:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.626414
- Title: Localising under the drape: proprioception in the era of distributed surgical robotic system
- Title(参考訳): ドレープ下におけるローカライゼーション : 分散手術ロボットシステム時代におけるプロピオセプション
- Authors: Martin Huber, Nicola A. Cavalcanti, Ayoob Davoodi, Ruixuan Li, Christopher E. Mower, Fabio Carrillo, Christoph J. Laux, Francois Teyssere, Thibault Chandanson, Antoine Harlé, Elie Saghbiny, Mazda Farshad, Guillaume Morel, Emmanuel Vander Poorten, Philipp Fürnstahl, Sébastien Ourselin, Christos Bergeles, Tom Vercauteren,
- Abstract要約: そこで本研究では,無マーカープロピオセプション法により,手術用ロボットの立体的位置を正確に決定する手法を提案する。
提案手法は,軽量ステレオRGBカメラとトランスフォーマーを用いた新しいディープラーニングモデルに依存している。
これは、これまでで最大規模の空間ロボット手術データセットの上に構築されている。
- 参考スコア(独自算出の注目度): 12.001086860486906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their mechanical sophistication, surgical robots remain blind to their surroundings. This lack of spatial awareness causes collisions, system recoveries, and workflow disruptions, issues that will intensify with the introduction of distributed robots with independent interacting arms. Existing tracking systems rely on bulky infrared cameras and reflective markers, providing only limited views of the surgical scene and adding hardware burden in crowded operating rooms. We present a marker-free proprioception method that enables precise localisation of surgical robots under their sterile draping despite associated obstruction of visual cues. Our method solely relies on lightweight stereo-RGB cameras and novel transformer-based deep learning models. It builds on the largest multi-centre spatial robotic surgery dataset to date (1.4M self-annotated images from human cadaveric and preclinical in vivo studies). By tracking the entire robot and surgical scene, rather than individual markers, our approach provides a holistic view robust to occlusions, supporting surgical scene understanding and context-aware control. We demonstrate an example of potential clinical benefits during in vivo breathing compensation with access to tissue dynamics, unobservable under state of the art tracking, and accurately locate in multi-robot systems for future intelligent interaction. In addition, and compared with existing systems, our method eliminates markers and improves tracking visibility by 25%. To our knowledge, this is the first demonstration of marker-free proprioception for fully draped surgical robots, reducing setup complexity, enhancing safety, and paving the way toward modular and autonomous robotic surgery.
- Abstract(参考訳): 機械の高度化にもかかわらず、外科用ロボットは周囲に盲目のままである。
この空間的認識の欠如は、衝突、システム回復、ワークフローの混乱を引き起こし、独立して対話する腕を持つ分散ロボットの導入によって、さらに困難になる。
既存の追跡システムは、大きめの赤外線カメラと反射マーカーに依存しており、手術シーンの視野は限られており、混雑した手術室ではハードウェアの負担が増大している。
視覚的手技の障害が伴うにもかかわらず,無マーカープロバイオセプション法により,手術用ロボットの立体的ドッピング下での正確な位置決めが可能となる。
提案手法は,軽量ステレオRGBカメラとトランスフォーマーを用いた新しいディープラーニングモデルにのみ依存する。
これは、これまでで最大の多心空間型ロボット手術データセット(ヒト・カダベリック・プレクリニカル・インビボの研究による1.4万枚の自己アノテーション付き画像)の上に構築されている。
個々のマーカーではなく、ロボット全体と手術シーンを追跡することで、閉塞に対して頑健な全体像を提供し、手術シーンの理解とコンテキスト認識制御を支援する。
生体内呼吸補償と組織動態へのアクセスによる臨床効果の例を示し, 最先端のトラッキングでは観測不能であり, 将来的な知的相互作用のためのマルチロボットシステムにおいて, 正確な位置検出が可能であった。
さらに,既存のシステムと比較してマーカーを排除し,視界を25%向上させる。
われわれの知る限り、これは完全な整形手術ロボットのためのマーカーレスプロバイオセプションの初めての実証であり、セットアップの複雑さを減らし、安全性を高め、モジュール式で自律的なロボット手術への道を歩む。
関連論文リスト
- Look, Focus, Act: Efficient and Robust Robot Learning via Human Gaze and Foveated Vision Transformers [2.736848514829367]
人間の視覚は視線によって駆動される非常に活発なプロセスであり、ファベーションを通じてタスク関連領域に注意を向ける。
本研究では,ロボット政策に人間のようなアクティブな視線を取り入れることで,効率性とロバスト性を高める方法について検討する。
我々は人間の頭と首の動きをエミュレートするロボットビジョンシステムであるGIAVAを開発し、ファーベレート処理のための視線調整を行う。
論文 参考訳(メタデータ) (2025-07-21T17:44:10Z) - Open-Source Multi-Viewpoint Surgical Telerobotics [6.763309989418208]
腹腔内に1つ以上の調整可能な視点を導入することで,外科医の新たな可視化・協調戦略を開拓できると推測した。
我々は,ハイパフォーマンスビジョンコンポーネントを統合し,da Vinci Research Kit制御ロジックを改良することにより,マルチビューポイント・マルチセンサーロボット手術システムを構築している。
論文 参考訳(メタデータ) (2025-05-16T11:41:27Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Using Conditional Generative Adversarial Networks to Reduce the Effects
of Latency in Robotic Telesurgery [0.0]
手術では、どんなマイクロ遅延でも重傷を負い、場合によっては致命傷を負うことがある。
現在の外科用ロボットは、腕や道具の位置を測定するために校正されたセンサーを使用している。
本研究は、患者の組織に関するツール位置を測定するための、純粋に光学的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-07T13:40:44Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。