論文の概要: Markerless Augmented Reality Registration for Surgical Guidance: A Multi-Anatomy Clinical Accuracy Study
- arxiv url: http://arxiv.org/abs/2511.02086v1
- Date: Mon, 03 Nov 2025 21:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.689507
- Title: Markerless Augmented Reality Registration for Surgical Guidance: A Multi-Anatomy Clinical Accuracy Study
- Title(参考訳): 手術指導のためのマーカーレス拡張現実レジストレーション : 多系統的臨床精度調査
- Authors: Yue Yang, Fabian Necker, Christoph Leuze, Michelle Chen, Andrey Finegersh, Jake Lee, Vasu Divi, Bruce Daniel, Brian Hargreaves, Jie Ying Wu, Fred M Baik,
- Abstract要約: 我々は,ヘッドマウントディスプレイ上に,奥行きのみのマーカーレス拡張現実(AR)登録パイプラインを開発し,臨床評価を行った。
実運用環境における小・低曲率解剖の精度を評価する。
- 参考スコア(独自算出の注目度): 6.154533735564864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: In this paper, we develop and clinically evaluate a depth-only, markerless augmented reality (AR) registration pipeline on a head-mounted display, and assess accuracy across small or low-curvature anatomies in real-life operative settings. Methods: On HoloLens 2, we align Articulated HAnd Tracking (AHAT) depth to Computed Tomography (CT)-derived skin meshes via (i) depth-bias correction, (ii) brief human-in-the-loop initialization, (iii) global and local registration. We validated the surface-tracing error metric by comparing "skin-to-bone" relative distances to CT ground truth on leg and foot models, using an AR-tracked tool. We then performed seven intraoperative target trials (feet x2, ear x3, leg x2) during the initial stage of fibula free-flap harvest and mandibular reconstruction surgery, and collected 500+ data per trial. Results: Preclinical validation showed tight agreement between AR-traced and CT distances (leg: median |Delta d| 0.78 mm, RMSE 0.97 mm; feet: 0.80 mm, 1.20 mm). Clinically, per-point error had a median of 3.9 mm. Median errors by anatomy were 3.2 mm (feet), 4.3 mm (ear), and 5.3 mm (lower leg), with 5 mm coverage 92-95%, 84-90%, and 72-86%, respectively. Feet vs. lower leg differed significantly (Delta median ~1.1 mm; p < 0.001). Conclusion: A depth-only, markerless AR pipeline on HMDs achieved ~3-4 mm median error across feet, ear, and lower leg in live surgical settings without fiducials, approaching typical clinical error thresholds for moderate-risk tasks. Human-guided initialization plus global-to-local registration enabled accurate alignment on small or low-curvature targets, improving the clinical readiness of markerless AR guidance.
- Abstract(参考訳): 目的: 本論文では, ヘッドマウントディスプレイ上に, 奥行きのみのマーカーレス拡張現実(AR)登録パイプラインを開発, 臨床評価し, 実運用環境での小型・低曲率解剖学の精度を評価する。
方法:HoloLens 2では、Articulated HAnd Tracking(AHAT)深度をCT(Computed Tomography)由来の皮膚メッシュに合わせる。
(i)深度バイアス補正
(II)簡単なHuman-in-the-loop初期化
(三)グローバル及び地域登録
足部および足部モデルにおける「皮膚から骨まで」の相対距離とCT地上の真偽をAR追跡ツールを用いて比較し,表面追跡誤差測定値の有効性を検証した。
術中目標7治験(feet x2, ear x3, leg x2)を行った。
結果: 臨床検査では, AR-traced と CT 距離 (正中値 |Delta d| 0.78 mm, RMSE 0.97 mm; フィート: 0.80 mm, 1.20 mm) の一致がみられた(正中値 |Delta d| 0.78 mm, RMSE 0.97 mm; フィート: 0.80 mm, 1.20 mm)。
臨床的には、点当たり誤差の中央値は3.9mmであった。
解剖学的誤差は3.2mm,4.3mm,5.3mm,5.3mmで,それぞれ92-95%,84-90%,72-86%であった。
体重と下肢は有意に差がみられた(デルタ中央値 ~1.1 mm; p < 0.001)。
結語: HMDの深度のみのマーカーレスARパイプラインは, 足, 耳, 下肢に約3~4mmの中央値誤差を有し, 術中リスクタスクの典型的な臨床誤差閾値に近づいた。
人誘導初期化とグローバルからローカルへの登録により、小または低曲率ターゲットへの正確なアライメントが可能となり、マーカーレスARガイダンスの臨床的準備性が改善された。
関連論文リスト
- Surf2CT: Cascaded 3D Flow Matching Models for Torso 3D CT Synthesis from Skin Surface [13.161605581865357]
Surf2CTは、外部表面スキャンと人口統計データから人間の胴体の全3DCTボリュームを合成するフレームワークである。
我々は、マサチューセッツ総合病院(MGH)から得られた3,198個の胴体CTスキャンとAutoPETチャレンジを組み合わせたデータセットでモデルをトレーニングした。
論文 参考訳(メタデータ) (2025-05-28T16:01:36Z) - A weakly-supervised deep learning model for fast localisation and delineation of the skeleton, internal organs, and spinal canal on Whole-Body Diffusion-Weighted MRI (WB-DWI) [0.0]
3DパッチをベースとしたResidual U-Netアーキテクチャに基づいた,ディープラーニングの自動パイプラインを開発した。
進行前立腺癌 (APC) と多発性骨髄腫 (MM) の532検体を含む多心性WB-DWIデータセットを用いた。
オートマチックとマニュアルフルボディのADCの相対的な中央値差は10%以下であった。
モデルはアトラスベース登録アルゴリズムの12倍高速であった。
論文 参考訳(メタデータ) (2025-03-26T17:03:46Z) - Registration of Longitudinal Spine CTs for Monitoring Lesion Growth [32.449176315776114]
縦椎CTを自動整列する新しい方法を提案する。
本手法は, 椎骨が自動的に局在し, ラベル付けされ, 3次元表面が生成される2段階のパイプラインを追従する。
自験例は5例, ベースラインCT3例, 術後3例, 術後12カ月で111例であった。
論文 参考訳(メタデータ) (2024-02-14T17:43:50Z) - Weakly-Supervised Detection of Bone Lesions in CT [48.34559062736031]
骨格領域は乳腺と前立腺に転移性癌が拡がる一般的な部位の1つである。
代用セグメンテーションタスクによりCTボリュームの骨病変を検出するパイプラインを開発した。
不完全および部分的トレーニングデータを用いたにもかかわらず,CTでは96.7%,47.3%の精度で骨病変が検出された。
論文 参考訳(メタデータ) (2024-01-31T21:05:34Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - Building Brains: Subvolume Recombination for Data Augmentation in Large
Vessel Occlusion Detection [56.67577446132946]
この戦略をデータから学ぶためには、標準的なディープラーニングベースのモデルに対して、大規模なトレーニングデータセットが必要である。
そこで本研究では, 異なる患者から血管木セグメントを組換えることで, 人工的なトレーニングサンプルを生成する方法を提案する。
拡張スキームに則って,タスク固有の入力を入力した3D-DenseNetを用いて,半球間の比較を行う。
論文 参考訳(メタデータ) (2022-05-05T10:31:57Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z) - Segmentation-free Estimation of Aortic Diameters from MRI Using Deep
Learning [2.231365407061881]
大動脈径の直接推定のための教師付き深層学習法を提案する。
提案手法では,3Dスキャンを入力とし,所定の位置で大動脈径を出力する3D+2D畳み込みニューラルネットワーク(CNN)を用いる。
全体として、3D+2D CNNは大動脈の位置によって2.2-2.4mmの平均的な絶対誤差を達成した。
論文 参考訳(メタデータ) (2020-09-09T18:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。