論文の概要: ARport: An Augmented Reality System for Markerless Image-Guided Port Placement in Robotic Surgery
- arxiv url: http://arxiv.org/abs/2602.14153v1
- Date: Sun, 15 Feb 2026 13:57:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.67182
- Title: ARport: An Augmented Reality System for Markerless Image-Guided Port Placement in Robotic Surgery
- Title(参考訳): ARport:ロボット手術におけるマーカレス画像誘導ポートプレースメントのための拡張現実システム
- Authors: Zheng Han, Zixin Yang, Yonghao Long, Lin Zhang, Peter Kazanzides, Qi Dou,
- Abstract要約: われわれはAR(拡張現実)システムであるARportを,事前に計画されたトロカーレイアウトを患者の体表面にマッピングする。
フルスケールの人間のファントム実験では、ARportは事前に計画されたトロカーサイトを物理的ファントムに正確にオーバーレイし、仮想計画と実際の解剖学の間の一貫した空間的対応を実現した。
- 参考スコア(独自算出の注目度): 20.49250717148441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Precise port placement is a critical step in robot-assisted surgery, where port configuration influences both visual access to the operative field and instrument maneuverability. To bridge the gap between preoperative planning and intraoperative execution, we present ARport, an augmented reality (AR) system that automatically maps pre-planned trocar layouts onto the patient's body surface, providing intuitive spatial guidance during surgical preparation. Methods: ARport, implemented on an optical see-through head-mounted display (OST-HMD), operates without any external sensors or markers, simplifying setup and enhancing workflow integration. It reconstructs the operative scene from RGB, depth, and pose data captured by the OST-HMD, extracts the patient's body surface using a foundation model, and performs surface-based markerless registration to align preoperative anatomical models to the extracted patient's body surface, enabling in-situ visualization of planned trocar layouts. A demonstration video illustrating the overall workflow is available online. Results: In full-scale human-phantom experiments, ARport accurately overlaid pre-planned trocar sites onto the physical phantom, achieving consistent spatial correspondence between virtual plans and real anatomy. Conclusion: ARport provides a fully marker-free and hardware-minimal solution for visualizing preoperative trocar plans directly on the patient's body surface. The system facilitates efficient intraoperative setup and demonstrates potential for seamless integration into routine clinical workflows.
- Abstract(参考訳): 目的: 精密ポート配置は, 手術現場への視覚的アクセスと操作性の両方に影響を与えるロボット補助手術において重要なステップである。
術前計画と術中実行のギャップを埋めるために,術前のトロカーレイアウトを患者の体表面に自動的にマッピングし,外科的治療中に直感的な空間ガイダンスを提供する拡張現実(AR)システムARportを提案する。
メソッド: 光学シースルーヘッドマウントディスプレイ(OST-HMD)上に実装されたARportは、外部センサーやマーカーを使わずに動作し、セットアップの簡素化とワークフロー統合の強化を行う。
OST-HMDが捉えたRGB、深さ、ポーズデータから手術シーンを再構築し、基礎モデルを用いて患者の体表面を抽出し、表面ベースのマーカーレス登録を行い、術前の解剖学的モデルを抽出された患者の体表面に整列させ、計画されたトロカーレイアウトをその場で可視化する。
全体的なワークフローを描写したデモビデオがオンラインで公開されている。
結果: フルスケールのヒトファントム実験では、ARportは事前に計画されたトロカーサイトを物理的ファントムに正確にオーバーレイし、仮想計画と実際の解剖学の一貫性のある空間的対応を実現した。
結論: ARportは、手術前のトロカー計画を直接患者の体表面上で視覚化するための、完全にマーカーフリーでハードウェア最小のソリューションを提供する。
本システムは,効率的な術中設定を促進するとともに,日常的な臨床ワークフローへのシームレスな統合の可能性を示す。
関連論文リスト
- AR Surgical Navigation with Surface Tracing: Comparing In-Situ Visualization with Tool-Tracking Guidance for Neurosurgical Applications [0.0]
本研究では,AR誘導を利用して解剖学的目標を登録し,リアルタイムな計器ナビゲーションを行う新しい手法を提案する。
新規な表面追跡法により標的位置を患者に登録し、リアルタイム赤外線ツールトラッキングを用いてカテーテル配置を支援する。
論文 参考訳(メタデータ) (2025-08-14T11:46:30Z) - Landmark-Free Preoperative-to-Intraoperative Registration in Laparoscopic Liver Resection [50.388465935739376]
術前の3Dモデルを術中2Dフレームにオーバーレイすることで肝臓の空間解剖を明瞭に把握し,より高い手術成功率を達成することができる。
既存の登録法は解剖学的ランドマークに大きく依存しており、2つの大きな制限に直面している。
本稿では,効果的な自己教師型学習を生かした,目覚ましくない術前・術中登録フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T14:55:57Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z) - Spatiotemporal-Aware Augmented Reality: Redefining HCI in Image-Guided
Therapy [39.370739217840594]
拡張現実(AR)はこの10年で手術室に導入されている。
本稿では、ヘッドマウントディスプレイの利点をフル活用して、模範的な可視化をいかに再定義するかを示す。
X線画像の幾何学的および物理的特性からシステムの認識は、異なるヒューマン・マシン・インタフェースの再定義を可能にする。
論文 参考訳(メタデータ) (2020-03-04T18:59:55Z) - Registration made easy -- standalone orthopedic navigation with HoloLens [27.180079923996406]
そこで本研究では,Microsoft HoloLens上で動作するペプシクルスクリュー配置のための,術中表面のデジタル化と直感的ホログラフィックナビゲーションを併用した手術ナビゲーション手法を提案する。
ファントム実験の予備的な結果は、この方法が臨床精度の要件を満たす可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-01-17T09:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。