論文の概要: SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction
- arxiv url: http://arxiv.org/abs/2003.03472v3
- Date: Thu, 25 Mar 2021 05:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 19:56:37.892877
- Title: SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction
- Title(参考訳): super deep: 機能抽出のための深層学習を用いたロボット組織操作のための手術知覚フレームワーク
- Authors: Jingpei Lu, Ambareesh Jayakumari, Florian Richter, Yang Li, Michael C.
Yip
- Abstract要約: 深層学習を外科的知覚に活用する。
我々は,効率的な特徴抽出が可能なディープニューラルネットワークを組織再構成と機器のポーズ推定プロセスに統合した。
本フレームワークは, 深層学習を特徴抽出に用いることにより, 手術環境における最先端の追跡性能を実現する。
- 参考スコア(独自算出の注目度): 25.865648975312407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic automation in surgery requires precise tracking of surgical tools and
mapping of deformable tissue. Previous works on surgical perception frameworks
require significant effort in developing features for surgical tool and tissue
tracking. In this work, we overcome the challenge by exploiting deep learning
methods for surgical perception. We integrated deep neural networks, capable of
efficient feature extraction, into the tissue reconstruction and instrument
pose estimation processes. By leveraging transfer learning, the deep learning
based approach requires minimal training data and reduced feature engineering
efforts to fully perceive a surgical scene. The framework was tested on three
publicly available datasets, which use the da Vinci Surgical System, for
comprehensive analysis. Experimental results show that our framework achieves
state-of-the-art tracking performance in a surgical environment by utilizing
deep learning for feature extraction.
- Abstract(参考訳): 手術におけるロボットの自動化には、手術器具の正確な追跡と変形可能な組織のマッピングが必要である。
外科的知覚フレームワークに関するこれまでの研究は、外科的ツールや組織追跡機能の開発に多大な努力を要する。
本研究では,深層学習の手法を応用して外科的知覚を克服する。
我々は,効率的な特徴抽出が可能な深層ニューラルネットワークを組織再構成および計測ポーズ推定プロセスに統合した。
トランスファーラーニングを活用することで、ディープラーニングベースのアプローチでは、手術シーンを完全に認識するために、最小限のトレーニングデータと、機能エンジニアリングの労力を削減できる。
このフレームワークは、da vinci手術システムを使用して包括的分析を行う3つの公開データセットでテストされた。
実験の結果, 深層学習を特徴抽出に活用し, 手術環境下での最先端追跡性能を実現することができた。
関連論文リスト
- Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、現実世界の手術の仮想レプリカを作成するプロセスである。
脊椎外科手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Autonomous Soft Tissue Retraction Using Demonstration-Guided
Reinforcement Learning [6.80186731352488]
既存の外科的課題学習は、主に剛体相互作用に関係している。
より高度な手術ロボットへの進歩は、軟体手術を必要とする。
この研究は、硬組織と軟組織の両方の相互作用を管理することができる外科用ロボットの開発と改良に関する将来の研究の基礎を築いた。
論文 参考訳(メタデータ) (2023-09-02T06:13:58Z) - SAMSNeRF: Segment Anything Model (SAM) Guides Dynamic Surgical Scene
Reconstruction by Neural Radiance Field (NeRF) [4.740415113160021]
本稿では,Segment Anything Model(SAM)とNeRF技術を組み合わせたSAMSNeRFという新しい手法を提案する。
内視鏡下外科的画像を用いた実験の結果,高忠実度ダイナミックな手術シーンの再構築に成功していることが示された。
論文 参考訳(メタデータ) (2023-08-22T20:31:00Z) - Dynamic Interactive Relation Capturing via Scene Graph Learning for
Robotic Surgical Report Generation [14.711668177329244]
ロボット補助手術の場合、正確な手術報告は手術中の臨床手術を反映し、文書化作業、術後分析、追跡治療を支援する。
手術現場では、楽器と組織の間の多くの複雑で多様な相互作用のため、これは難しい課題である。
本稿では, 組織と手術器具の相互関係を明らかにすることにより, 手術報告生成を促進するニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T07:34:41Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - E-DSSR: Efficient Dynamic Surgical Scene Reconstruction with
Transformer-based Stereoscopic Depth Perception [15.927060244702686]
28 fpsの高ダイナミックな手術シーンに対して,効率的な再建パイプラインを提案する。
具体的には,効率的な深度推定のための変圧器を用いた立体視深度知覚を設計する。
提案したパイプラインを,公開Hamlyn Centre内視鏡ビデオデータセットと社内のDaVinciロボット手術データセットの2つのデータセットで評価した。
論文 参考訳(メタデータ) (2021-07-01T05:57:41Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。