論文の概要: Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery
- arxiv url: http://arxiv.org/abs/2403.07219v1
- Date: Tue, 12 Mar 2024 00:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:25:09.910025
- Title: Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery
- Title(参考訳): 拡張現実人工内耳手術用インカスのポーズ推定を用いた単眼顕微鏡によるct画像診断
- Authors: Yike Zhang, Eduardo Davalos, Dingjie Su, Ange Lou, Jack H. Noble
- Abstract要約: 本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
- 参考スコア(独自算出の注目度): 3.8909273404657556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For those experiencing severe-to-profound sensorineural hearing loss, the
cochlear implant (CI) is the preferred treatment. Augmented reality (AR) aided
surgery can potentially improve CI procedures and hearing outcomes. Typically,
AR solutions for image-guided surgery rely on optical tracking systems to
register pre-operative planning information to the display so that hidden
anatomy or other important information can be overlayed and co-registered with
the view of the surgical scene. In this paper, our goal is to develop a method
that permits direct 2D-to-3D registration of the microscope video to the
pre-operative Computed Tomography (CT) scan without the need for external
tracking equipment. Our proposed solution involves using surface mapping of a
portion of the incus in surgical recordings and determining the pose of this
structure relative to the surgical microscope by performing pose estimation via
the perspective-n-point (PnP) algorithm. This registration can then be applied
to pre-operative segmentations of other anatomy-of-interest, as well as the
planned electrode insertion trajectory to co-register this information for the
AR display. Our results demonstrate the accuracy with an average rotation error
of less than 25 degrees and a translation error of less than 2 mm, 3 mm, and
0.55% for the x, y, and z axes, respectively. Our proposed method has the
potential to be applicable and generalized to other surgical procedures while
only needing a monocular microscope during intra-operation.
- Abstract(参考訳): 重度から重度の感音難聴の患者に対しては、人工内耳(CI)が好ましい。
Augmented Reality (AR) は、CIの処置や聴覚効果を改善する可能性がある。
一般的に、画像誘導手術のARソリューションは、手術現場の視界に隠れた解剖などの重要な情報をオーバーレイし、共同登録できるように、手術前の計画情報をディスプレイに登録する光学的トラッキングシステムに依存している。
本稿では,顕微鏡画像の2次元から3次元への直接的登録を,外部追跡装置を必要とせずにCTスキャンに行う手法を開発することを目的とする。
提案手法は, 外科的記録におけるインカスの一部の表面マッピングを用いて, 遠近法(PnP)アルゴリズムを用いてポーズ推定を行うことにより, 手術顕微鏡に対して, この構造のポーズを決定することを含む。
この登録は、他の解剖学の術前のセグメンテーションや、この情報をARディスプレイに登録するための計画された電極挿入軌跡に適用することができる。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
本手法は術中単分子顕微鏡を必要とせず,他の外科手術に応用および一般化できる可能性を有する。
関連論文リスト
- An Endoscopic Chisel: Intraoperative Imaging Carves 3D Anatomical Models [8.516340459721484]
本稿では,術前の3次元解剖モデル更新のための第1のビジョンベースアプローチを提案する。
以上の結果より, 外科的進行過程における誤りの減少が示唆された。
論文 参考訳(メタデータ) (2024-02-19T05:06:52Z) - An objective comparison of methods for augmented reality in laparoscopic
liver resection by preoperative-to-intraoperative image fusion [33.12510773034339]
腹腔鏡下肝切除のための拡張現実(Augmented reality)は、腹腔鏡下画像上に投射することで、外科医が肝臓内に埋め込まれた腫瘍や血管をローカライズできる可視化モードである。
ほとんどのアルゴリズムは、登録をガイドするために解剖学的ランドマークを使用している。
これらのランドマークには、肝臓の下尾根、ファルシホルムの靭帯、および閉塞輪郭が含まれる。
術中腹腔鏡下固定術(P2ILF)を施行し,これらのランドマークを自動的に検出し,登録する可能性について検討した。
論文 参考訳(メタデータ) (2024-01-28T20:30:14Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Phase-Specific Augmented Reality Guidance for Microscopic Cataract
Surgery Using Long-Short Spatiotemporal Aggregation Transformer [14.568834378003707]
乳化白内障手術(英: Phaemulsification cataract surgery, PCS)は、外科顕微鏡を用いた外科手術である。
PCS誘導システムは、手術用顕微鏡映像から貴重な情報を抽出し、熟練度を高める。
既存のPCSガイダンスシステムでは、位相特異なガイダンスに悩まされ、冗長な視覚情報に繋がる。
本稿では,認識された手術段階に対応するAR情報を提供する,新しい位相特異的拡張現実(AR)誘導システムを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:56:56Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Automatic registration with continuous pose updates for marker-less
surgical navigation in spine surgery [52.63271687382495]
本研究では, 腰部脊柱管固定術の登録問題を, 無放射線で自動的に解決するアプローチを提案する。
深部神経ネットワークは、腰椎を分割し、その方向を同時に予測するように訓練され、前手術モデルに対する最初のポーズが得られた。
拡張現実ベースのナビゲーションシステムとの統合により、直感的な外科的ガイダンスが提供される。
論文 参考訳(メタデータ) (2023-08-05T16:26:41Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Learning How To Robustly Estimate Camera Pose in Endoscopic Videos [5.073761189475753]
カメラポーズ推定における2つの幾何学的損失を最小限に抑えるために,奥行きと光学的流れを推定するステレオ内視鏡の解を提案する。
最も重要なことは、入力画像の内容に応じてコントリビューションのバランスをとるために、2つの学習された画素単位の重みマッピングを導入することである。
パブリックなSCAREDデータセットに対する我々のアプローチを検証するとともに、新たなインビボデータセットであるStereoMISを導入しています。
論文 参考訳(メタデータ) (2023-04-17T07:05:01Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。