論文の概要: Monocular Marker-free Patient-to-Image Intraoperative Registration for Cochlear Implant Surgery
- arxiv url: http://arxiv.org/abs/2505.18381v1
- Date: Fri, 23 May 2025 21:15:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.382664
- Title: Monocular Marker-free Patient-to-Image Intraoperative Registration for Cochlear Implant Surgery
- Title(参考訳): 人工内耳手術における単眼的マーカーレス患者対画像術中レジストレーション
- Authors: Yike Zhang, Eduardo Davalos Anaya, Jack H. Noble,
- Abstract要約: 本フレームワークは単分子型外科顕微鏡とシームレスに統合され,追加のハードウェア依存や要件を伴わずに臨床応用に極めて有用である。
以上より, 術中CTスキャンを2次元の手術シーンに登録し, 角誤差が10度以内の症例では, 6次元カメラの撮影位置の予測に臨床的に関連性があることが示唆された。
- 参考スコア(独自算出の注目度): 4.250558597144547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel method for monocular patient-to-image intraoperative registration, specifically designed to operate without any external hardware tracking equipment or fiducial point markers. Leveraging a synthetic microscopy surgical scene dataset with a wide range of transformations, our approach directly maps preoperative CT scans to 2D intraoperative surgical frames through a lightweight neural network for real-time cochlear implant surgery guidance via a zero-shot learning approach. Unlike traditional methods, our framework seamlessly integrates with monocular surgical microscopes, making it highly practical for clinical use without additional hardware dependencies and requirements. Our method estimates camera poses, which include a rotation matrix and a translation vector, by learning from the synthetic dataset, enabling accurate and efficient intraoperative registration. The proposed framework was evaluated on nine clinical cases using a patient-specific and cross-patient validation strategy. Our results suggest that our approach achieves clinically relevant accuracy in predicting 6D camera poses for registering 3D preoperative CT scans to 2D surgical scenes with an angular error within 10 degrees in most cases, while also addressing limitations of traditional methods, such as reliance on external tracking systems or fiducial markers.
- Abstract(参考訳): 本稿では,外的ハードウェア追跡装置や触覚的ポイントマーカーを使わずに動作可能な,単眼的患者と画像の術中登録法を提案する。
本手法では, 術前CT画像を直接2次元術中フレームにマッピングし, リアルタイム人工内耳手術指導をゼロショット学習アプローチで行う。
従来の方法とは異なり,本フレームワークは単分子型外科顕微鏡とシームレスに統合され,追加のハードウェア依存や要件を伴わずに臨床応用に極めて有用である。
本手法は, 合成データセットから学習することで, 回転行列と変換ベクトルを含むカメラポーズを推定し, 高精度かつ効率的な術中登録を可能にする。
本研究の枠組みは, 患者特異性および患者横断性評価戦略を用いて, 9症例で評価された。
以上の結果から, 術中CT画像の3次元撮影を3次元の手術シーンに10度以内の角度誤差で登録し, 外部追跡システムや画像マーカーへの依存といった従来の手法の限界に対処する上で, 臨床的に妥当な精度が得られたことが示唆された。
関連論文リスト
- Landmark-Free Preoperative-to-Intraoperative Registration in Laparoscopic Liver Resection [50.388465935739376]
術前の3Dモデルを術中2Dフレームにオーバーレイすることで肝臓の空間解剖を明瞭に把握し,より高い手術成功率を達成することができる。
既存の登録法は解剖学的ランドマークに大きく依存しており、2つの大きな制限に直面している。
本稿では,効果的な自己教師型学習を生かした,目覚ましくない術前・術中登録フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T14:55:57Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - An objective comparison of methods for augmented reality in laparoscopic
liver resection by preoperative-to-intraoperative image fusion [33.12510773034339]
腹腔鏡下肝切除のための拡張現実(Augmented reality)は、腹腔鏡下画像上に投射することで、外科医が肝臓内に埋め込まれた腫瘍や血管をローカライズできる可視化モードである。
ほとんどのアルゴリズムは、登録をガイドするために解剖学的ランドマークを使用している。
これらのランドマークには、肝臓の下尾根、ファルシホルムの靭帯、および閉塞輪郭が含まれる。
術中腹腔鏡下固定術(P2ILF)を施行し,これらのランドマークを自動的に検出し,登録する可能性について検討した。
論文 参考訳(メタデータ) (2024-01-28T20:30:14Z) - Learning Expected Appearances for Intraoperative Registration during
Neurosurgery [39.256282185354465]
そこで本研究では, 患者対画像登録の新たな方法を提案する。
本手法は,術前画像を用いて患者の期待するビューを手術顕微鏡で合成し,予測される範囲の変換を行う。
論文 参考訳(メタデータ) (2023-10-03T01:50:48Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。