論文の概要: A Review on Organ Deformation Modeling Approaches for Reliable Surgical Navigation using Augmented Reality
- arxiv url: http://arxiv.org/abs/2408.02713v1
- Date: Mon, 5 Aug 2024 14:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 16:08:09.241662
- Title: A Review on Organ Deformation Modeling Approaches for Reliable Surgical Navigation using Augmented Reality
- Title(参考訳): 拡張現実を用いた信頼性手術ナビゲーションのための臓器変形モデリング手法の検討
- Authors: Zheng Han, Qi Dou,
- Abstract要約: Augmented Reality(AR)は、外科医が患者の体内で重要な構造を可視化できるようにすることで、外科手術に革命をもたらす可能性を秘めている。
手術中の臓器の動的変形から生じる課題は、手術前モデルが術中解剖を忠実に表現するには不十分である。
本稿では,ARガイド下手術における臓器変形モデリングの理解を深め,今後の進歩の可能性について考察する。
- 参考スコア(独自算出の注目度): 13.77243506924244
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Augmented Reality (AR) holds the potential to revolutionize surgical procedures by allowing surgeons to visualize critical structures within the patient's body. This is achieved through superimposing preoperative organ models onto the actual anatomy. Challenges arise from dynamic deformations of organs during surgery, making preoperative models inadequate for faithfully representing intraoperative anatomy. To enable reliable navigation in augmented surgery, modeling of intraoperative deformation to obtain an accurate alignment of the preoperative organ model with the intraoperative anatomy is indispensable. Despite the existence of various methods proposed to model intraoperative organ deformation, there are still few literature reviews that systematically categorize and summarize these approaches. This review aims to fill this gap by providing a comprehensive and technical-oriented overview of modeling methods for intraoperative organ deformation in augmented reality in surgery. Through a systematic search and screening process, 112 closely relevant papers were included in this review. By presenting the current status of organ deformation modeling methods and their clinical applications, this review seeks to enhance the understanding of organ deformation modeling in AR-guided surgery, and discuss the potential topics for future advancements.
- Abstract(参考訳): Augmented Reality(AR)は、外科医が患者の体内で重要な構造を可視化できるようにすることで、外科手術に革命をもたらす可能性を秘めている。
これは、手術前の臓器モデルを実際の解剖学に重ね合わせることで達成される。
手術中の臓器の動的変形から生じる課題は、手術前モデルが術中解剖を忠実に表現するには不十分である。
外科手術における信頼性の高いナビゲーションを可能にするために、術前臓器モデルと術中解剖の正確なアライメントを得るためには、術中変形のモデル化が不可欠である。
術中臓器の変形をモデル化するための様々な手法が提案されているが、これらのアプローチを体系的に分類し要約する文献レビューは少ない。
本総説では, 手術時の臓器変形のモデル化手法を包括的かつ技術的に概観することにより, このギャップを埋めることを目的としている。
体系的な検索とスクリーニングのプロセスを通じて、このレビューには112の関連論文が含まれていた。
本稿では, 臓器変形モデリングの現状と臨床応用について述べることにより, ARガイド下手術における臓器変形モデリングの理解を深め, 今後の進歩の可能性について考察する。
関連論文リスト
- Deep Learning for Surgical Instrument Recognition and Segmentation in Robotic-Assisted Surgeries: A Systematic Review [0.24342814271497581]
ロボットによる最小侵襲手術における手術器具のアノテートのための深層学習(DL)の適用は,手術技術の大幅な進歩を示している。
これらの高度なDLモデルは、手術器具の検出と分節の精度と効率を顕著に改善した。
外科教育におけるDLの応用は変革的である。
論文 参考訳(メタデータ) (2024-10-09T04:07:38Z) - A Diffusion Model for Simulation Ready Coronary Anatomy with Morpho-skeletal Control [1.053652600598537]
仮想的介入研究のために,潜在拡散モデルを用いて冠状動脈解剖学をカスタムに合成する方法を検討する。
われわれのフレームワークは、冠動脈解剖学を制御可能な方法で生成・編集することを可能にし、デバイス設計者が機械的洞察を導き出すことを可能にする。
論文 参考訳(メタデータ) (2024-07-22T13:44:06Z) - An Endoscopic Chisel: Intraoperative Imaging Carves 3D Anatomical Models [8.516340459721484]
本稿では,術前の3次元解剖モデル更新のための第1のビジョンベースアプローチを提案する。
以上の結果より, 外科的進行過程における誤りの減少が示唆された。
論文 参考訳(メタデータ) (2024-02-19T05:06:52Z) - SAMSNeRF: Segment Anything Model (SAM) Guides Dynamic Surgical Scene
Reconstruction by Neural Radiance Field (NeRF) [4.740415113160021]
本稿では,Segment Anything Model(SAM)とNeRF技術を組み合わせたSAMSNeRFという新しい手法を提案する。
内視鏡下外科的画像を用いた実験の結果,高忠実度ダイナミックな手術シーンの再構築に成功していることが示された。
論文 参考訳(メタデータ) (2023-08-22T20:31:00Z) - Prediction of Post-Operative Renal and Pulmonary Complications Using
Transformers [69.81176740997175]
術後急性腎不全,肺合併症,院内死亡の予測におけるトランスフォーマーモデルの有用性について検討した。
以上の結果から,トランスフォーマーモデルにより術後合併症の予測や従来の機械学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-06-01T14:08:05Z) - Safe Deep RL for Intraoperative Planning of Pedicle Screw Placement [61.28459114068828]
安全な深部強化学習(DRL)に基づく訓練経路計画にリアルタイムな観察を活用するロボット脊椎手術の術中計画手法を提案する。
本手法は,ゴールドスタンダード (GS) 掘削計画に関して,90%の骨貫通を達成できた。
論文 参考訳(メタデータ) (2023-05-09T11:42:53Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。