論文の概要: Extend Your Horizon: A Device-Agnostic Surgical Tool Tracking Framework with Multi-View Optimization for Augmented Reality
- arxiv url: http://arxiv.org/abs/2603.07981v1
- Date: Mon, 09 Mar 2026 05:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.51254
- Title: Extend Your Horizon: A Device-Agnostic Surgical Tool Tracking Framework with Multi-View Optimization for Augmented Reality
- Title(参考訳): Extend Your Horizon: 拡張現実のための多視点最適化を備えたデバイス非依存の手術ツール追跡フレームワーク
- Authors: Jiaming Zhang, Mingxu Liu, Hongchao Shu, Ruixing Liang, Yihao Liu, Ojas Taskar, Amir Kheradmand, Mehran Armand, Alejandro Martin-Gomez,
- Abstract要約: 手術ナビゲーションは、患者の解剖学と手術器具のポーズを推定することでリアルタイムのガイダンスを提供する。
既存のアプローチのほとんどは明確な視線に依存しており、動的な手術室環境では維持が困難である。
本研究は,動的なシーングラフ表現内に複数の感覚モーダルを融合させることにより,閉塞下での手術器具の追跡を行う枠組みを導入する。
- 参考スコア(独自算出の注目度): 40.023882327049684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Surgical navigation provides real-time guidance by estimating the pose of patient anatomy and surgical instruments to visualize relevant intraoperative information. In conventional systems, instruments are typically tracked using fiducial markers and stationary optical tracking systems (OTS). Augmented reality (AR) has further enabled intuitive visualization and motivated tracking using sensors embedded in head-mounted displays (HMDs). However, most existing approaches rely on a clear line of sight, which is difficult to maintain in dynamic operating room environments due to frequent occlusions caused by equipment, surgical tools, and personnel. This work introduces a framework for tracking surgical instruments under occlusion by fusing multiple sensing modalities within a dynamic scene graph representation. The proposed approach integrates tracking systems with different accuracy levels and motion characteristics while estimating tracking reliability in real time. Experimental results demonstrate improved robustness and enhanced consistency of AR visualization in the presence of occlusions.
- Abstract(参考訳): 手術ナビゲーションは、患者の解剖学と手術器具のポーズを推定して、関連する術中情報を可視化することで、リアルタイムのガイダンスを提供する。
従来のシステムでは、機器は通常、画像マーカーと静止光追跡システム(OTS)を用いて追跡される。
拡張現実(AR)はさらに、ヘッドマウントディスプレイ(HMD)に埋め込まれたセンサーを使用して、直感的な可視化とモチベーション付きトラッキングを可能にした。
しかし、既存のほとんどのアプローチは明確な視線に依存しており、機器、手術器具、人員による頻繁な閉塞のため、手術室環境の動的維持が困難である。
本研究は,動的なシーングラフ表現内に複数の感覚モーダルを融合させることにより,閉塞下での手術器具の追跡を行う枠組みを導入する。
提案手法は、トラッキング信頼性をリアルタイムで推定しながら、異なる精度レベルと動作特性を持つトラッキングシステムを統合する。
実験結果から,オクルージョンの存在下でのロバスト性の向上とAR視覚化の整合性の向上が示された。
関連論文リスト
- SurgAtt-Tracker: Online Surgical Attention Tracking via Temporal Proposal Reranking and Motion-Aware Refinement [45.37105164372227]
SurgAtt-Trackerは外科的注意をしっかり追跡する総合的なフレームワークである。
複数の外科的データセットの実験は、SurgAtt-Trackerが一貫して最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2026-02-24T07:30:51Z) - Multimodal Feedback for Handheld Tool Guidance: Combining Wrist-Based Haptics with Augmented Reality [6.984082653739313]
光シースルー拡張現実(AR)における視覚的手首フィードバックがハンドヘルドツール運動の空間的誘導をいかに向上させるかを検討する。
以上の結果から,手首をベースとした触覚をARシステムに統合し,手術指導などの視覚的タスクを高精度で複雑化する可能性が示唆された。
論文 参考訳(メタデータ) (2026-01-17T12:49:00Z) - AR Surgical Navigation with Surface Tracing: Comparing In-Situ Visualization with Tool-Tracking Guidance for Neurosurgical Applications [0.0]
本研究では,AR誘導を利用して解剖学的目標を登録し,リアルタイムな計器ナビゲーションを行う新しい手法を提案する。
新規な表面追跡法により標的位置を患者に登録し、リアルタイム赤外線ツールトラッキングを用いてカテーテル配置を支援する。
論文 参考訳(メタデータ) (2025-08-14T11:46:30Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [53.5449912019877]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Combining Vision and EMG-Based Hand Tracking for Extended Reality
Musical Instruments [0.0]
自己閉塞は、視覚に基づく手の動き追跡システムにとって重要な課題である。
本研究では,指関節角度推定のための視覚ベースハンドトラッキングと表面筋電図(SEMG)データを組み合わせたマルチモーダルハンドトラッキングシステムを提案する。
論文 参考訳(メタデータ) (2023-07-13T15:15:02Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。