論文の概要: Towards Augmented Reality-based Suturing in Monocular Laparoscopic
Training
- arxiv url: http://arxiv.org/abs/2001.06894v1
- Date: Sun, 19 Jan 2020 19:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 12:45:49.138113
- Title: Towards Augmented Reality-based Suturing in Monocular Laparoscopic
Training
- Title(参考訳): 単眼腹腔鏡トレーニングにおける拡張現実によるサチューリング
- Authors: Chandrakanth Jayachandran Preetha, Jonathan Kloss, Fabian Siegfried
Wehrtmann, Lalith Sharan, Carolyn Fan, Beat Peter M\"uller-Stich, Felix
Nickel, Sandy Engelhardt
- Abstract要約: 本研究では,シリコーンパッド上での腹腔鏡下トレーニング結果を高めるために,定量的かつ質的な視覚表現を備えた拡張現実環境を提案する。
これは、マルチクラスセグメンテーションと深度マップ予測を実行するマルチタスク教師付きディープニューラルネットワークによって実現されている。
本発明のネットワークは、手術針分割用ダイススコア0.67、針ホルダ計器セグメンテーション0.81、深さ推定用平均絶対誤差6.5mmを達成する。
- 参考スコア(独自算出の注目度): 0.5707453684578819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Minimally Invasive Surgery (MIS) techniques have gained rapid popularity
among surgeons since they offer significant clinical benefits including reduced
recovery time and diminished post-operative adverse effects. However,
conventional endoscopic systems output monocular video which compromises depth
perception, spatial orientation and field of view. Suturing is one of the most
complex tasks performed under these circumstances. Key components of this tasks
are the interplay between needle holder and the surgical needle. Reliable 3D
localization of needle and instruments in real time could be used to augment
the scene with additional parameters that describe their quantitative geometric
relation, e.g. the relation between the estimated needle plane and its rotation
center and the instrument. This could contribute towards standardization and
training of basic skills and operative techniques, enhance overall surgical
performance, and reduce the risk of complications. The paper proposes an
Augmented Reality environment with quantitative and qualitative visual
representations to enhance laparoscopic training outcomes performed on a
silicone pad. This is enabled by a multi-task supervised deep neural network
which performs multi-class segmentation and depth map prediction. Scarcity of
labels has been conquered by creating a virtual environment which resembles the
surgical training scenario to generate dense depth maps and segmentation maps.
The proposed convolutional neural network was tested on real surgical training
scenarios and showed to be robust to occlusion of the needle. The network
achieves a dice score of 0.67 for surgical needle segmentation, 0.81 for needle
holder instrument segmentation and a mean absolute error of 6.5 mm for depth
estimation.
- Abstract(参考訳): 低侵襲手術(MIS)技術は、回復時間短縮や術後の副作用の減少など重要な臨床効果を提供するため、外科医の間で急速に普及している。
しかし、従来の内視鏡システムは、深度知覚、空間方向、視野を損なう単眼映像を出力する。
これらの状況下で実行される最も複雑なタスクの1つである。
この作業の重要な要素は針ホルダーと手術針の間の相互作用である。
針と楽器のリアルタイムの信頼性の高い3次元局在化は、推定された針面とその回転中心と機器の関係など、その量的幾何学的関係を記述するパラメータを追加してシーンを増強するために用いられる。
これは基本的なスキルと手術技術の標準化と訓練に寄与し、手術全体のパフォーマンスを高め、合併症のリスクを軽減できる。
本論文は,シリコーンパッド上での腹腔鏡視訓練結果を改善するために,定量的・定性的な視覚的表現を伴う拡張現実環境を提案する。
これはマルチクラスセグメンテーションと深度マップ予測を実行するマルチタスク教師付きディープニューラルネットワークによって実現されている。
深度マップとセグメンテーションマップを生成するための外科訓練シナリオに似た仮想環境を構築することで,ラベルの空洞化が克服されている。
提案する畳み込みニューラルネットワークは実際の手術訓練シナリオでテストされ,針の閉塞に頑健であることが判明した。
本発明のネットワークは、手術針分割用ダイススコア0.67、針ホルダ計器セグメンテーション0.81、深さ推定用平均絶対誤差6.5mmを達成する。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - Redefining the Laparoscopic Spatial Sense: AI-based Intra- and
Postoperative Measurement from Stereoimages [3.2039076408339353]
立体視を用いた腹腔鏡計測のための人体AIを用いた新しい手法を開発した。
本研究は, 総合的質的要件分析に基づいて, 包括的測定法を提案する。
提案手法が1mm以下の誤差で精度の高い距離測定を実現する可能性について概説した。
論文 参考訳(メタデータ) (2023-11-16T10:19:04Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Phase-Specific Augmented Reality Guidance for Microscopic Cataract
Surgery Using Long-Short Spatiotemporal Aggregation Transformer [14.568834378003707]
乳化白内障手術(英: Phaemulsification cataract surgery, PCS)は、外科顕微鏡を用いた外科手術である。
PCS誘導システムは、手術用顕微鏡映像から貴重な情報を抽出し、熟練度を高める。
既存のPCSガイダンスシステムでは、位相特異なガイダンスに悩まされ、冗長な視覚情報に繋がる。
本稿では,認識された手術段階に対応するAR情報を提供する,新しい位相特異的拡張現実(AR)誘導システムを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:56:56Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Tissue Classification During Needle Insertion Using Self-Supervised
Contrastive Learning and Optical Coherence Tomography [53.38589633687604]
針先端で取得した複雑なCT信号の位相および強度データから組織を分類するディープニューラルネットワークを提案する。
トレーニングセットの10%で、提案した事前学習戦略により、モデルが0.84のF1スコアを達成するのに対して、モデルが0.60のF1スコアを得るのに対して、モデルが0.84のF1スコアを得るのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T14:11:04Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。