論文の概要: An objective comparison of methods for augmented reality in laparoscopic
liver resection by preoperative-to-intraoperative image fusion
- arxiv url: http://arxiv.org/abs/2401.15753v2
- Date: Wed, 7 Feb 2024 11:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:12:09.324775
- Title: An objective comparison of methods for augmented reality in laparoscopic
liver resection by preoperative-to-intraoperative image fusion
- Title(参考訳): 術前-術中画像融合法による腹腔鏡下肝切除における拡張現実の客観的比較
- Authors: Sharib Ali, Yamid Espinel, Yueming Jin, Peng Liu, Bianca G\"uttner,
Xukun Zhang, Lihua Zhang, Tom Dowrick, Matthew J. Clarkson, Shiting Xiao,
Yifan Wu, Yijun Yang, Lei Zhu, Dai Sun, Lan Li, Micha Pfeiffer, Shahid Farid,
Lena Maier-Hein, Emmanuel Buc, Adrien Bartoli
- Abstract要約: 腹腔鏡下肝切除のための拡張現実(Augmented reality)は、腹腔鏡下画像上に投射することで、外科医が肝臓内に埋め込まれた腫瘍や血管をローカライズできる可視化モードである。
ほとんどのアルゴリズムは、登録をガイドするために解剖学的ランドマークを使用している。
これらのランドマークには、肝臓の下尾根、ファルシホルムの靭帯、および閉塞輪郭が含まれる。
術中腹腔鏡下固定術(P2ILF)を施行し,これらのランドマークを自動的に検出し,登録する可能性について検討した。
- 参考スコア(独自算出の注目度): 33.12510773034339
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Augmented reality for laparoscopic liver resection is a visualisation mode
that allows a surgeon to localise tumours and vessels embedded within the liver
by projecting them on top of a laparoscopic image. Preoperative 3D models
extracted from CT or MRI data are registered to the intraoperative laparoscopic
images during this process. In terms of 3D-2D fusion, most of the algorithms
make use of anatomical landmarks to guide registration. These landmarks include
the liver's inferior ridge, the falciform ligament, and the occluding contours.
They are usually marked by hand in both the laparoscopic image and the 3D
model, which is time-consuming and may contain errors if done by a
non-experienced user. Therefore, there is a need to automate this process so
that augmented reality can be used effectively in the operating room. We
present the Preoperative-to-Intraoperative Laparoscopic Fusion Challenge
(P2ILF), held during the Medical Imaging and Computer Assisted Interventions
(MICCAI 2022) conference, which investigates the possibilities of detecting
these landmarks automatically and using them in registration. The challenge was
divided into two tasks: 1) A 2D and 3D landmark detection task and 2) a 3D-2D
registration task. The teams were provided with training data consisting of 167
laparoscopic images and 9 preoperative 3D models from 9 patients, with the
corresponding 2D and 3D landmark annotations. A total of 6 teams from 4
countries participated, whose proposed methods were evaluated on 16 images and
two preoperative 3D models from two patients. All the teams proposed deep
learning-based methods for the 2D and 3D landmark segmentation tasks and
differentiable rendering-based methods for the registration task. Based on the
experimental outcomes, we propose three key hypotheses that determine current
limitations and future directions for research in this domain.
- Abstract(参考訳): 腹腔鏡下肝切除のための拡張現実(Augmented reality)は、腹腔鏡下画像上に投射することで、外科医が肝臓内に埋め込まれた腫瘍や血管をローカライズできる可視化モードである。
CTまたはMRIデータから抽出した術前3Dモデルを術中腹腔鏡画像に登録する。
3D-2D融合の観点では、ほとんどのアルゴリズムは登録をガイドするために解剖学的ランドマークを使用している。
これらのランドマークには、肝臓の下尾根、ファルシフォーム靭帯、閉塞輪郭などがある。
通常は、腹腔鏡画像と3Dモデルの両方で手動で特徴付けられるが、これは時間がかかり、経験のないユーザーが行うとエラーを含むことがある。
そのため、手術室で拡張現実を効果的に使用できるように、このプロセスを自動化する必要がある。
今回我々は,医療画像・コンピュータ支援介入(miccai 2022)会議において,これらのランドマークを自動的に検出し,登録に利用する可能性を検証したp2ilf(preoperative-intraoperative laparoscopic fusion challenge)を開催する。
課題は2つのタスクに分けられた。
1)2次元及び3次元ランドマーク検出タスクと方法
2) 3D-2D 登録業務。
167枚の腹腔鏡画像と9例の術前3Dモデルによるトレーニングデータと、対応する2Dおよび3Dランドマークアノテーションが得られた。
4ヶ国から計6チームが参加し, 提案手法を16枚の画像と2つの術前3Dモデルで評価した。
すべてのチームが2Dおよび3Dランドマークセグメンテーションタスクのためのディープラーニングベースの方法と、登録タスクのための異なるレンダリングベースの方法を提案した。
実験結果に基づいて,本分野の研究の現在の限界と今後の方向性を決定する3つの重要な仮説を提案する。
関連論文リスト
- Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、外科デジタルツイン(SDT)とも呼ばれる現実世界の手術の仮想レプリカを作成する過程である。
現実的な条件下での脊髄手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Domain adaptation strategies for 3D reconstruction of the lumbar spine
using real fluoroscopy data [9.42467375312292]
本研究は整形外科手術における手術ナビゲーション導入における重要な障害に対処するものである。
これは、少数の蛍光画像から脊椎の3次元解剖モデルを生成するためのアプローチを示す。
これまでの合成データに基づく研究の精度に匹敵する84%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2024-01-29T10:22:45Z) - Intraoperative 2D/3D Image Registration via Differentiable X-ray Rendering [5.617649111108429]
DiffPoseは、患者固有のシミュレーションと微分可能な物理ベースのレンダリングを利用して、手動でラベル付けされたデータに頼ることなく正確な2D/3D登録を実現する自己教師型アプローチである。
DiffPoseは手術用データセット全体の術速でサブミリ精度を達成し、既存の教師なしの手法を桁違いに改善し、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T13:05:54Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - CNN-based real-time 2D-3D deformable registration from a single X-ray
projection [2.1198879079315573]
本稿では, フルオロスコープ画像を用いたリアルタイム2D-3D非剛体登録法を提案する。
術前スキャンから解剖学の変位場と2次元投影からなるデータセットを生成する。
ニューラルネットワークは、未知の3D変位場を単一の投影画像から回復するように訓練される。
論文 参考訳(メタデータ) (2022-12-15T09:57:19Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - IGCN: Image-to-graph Convolutional Network for 2D/3D Deformable
Registration [1.2246649738388387]
単一視点2次元投影画像に対する3次元臓器メッシュの変形可能な登録を実現する画像間畳み込みネットワークを提案する。
複数臓器間の関係を考慮に入れた形状予測は, 臨床的に許容できる精度で放射線像からの呼吸運動と変形を予測するのに有用である。
論文 参考訳(メタデータ) (2021-10-31T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。