論文の概要: Recurrent and Spiking Modeling of Sparse Surgical Kinematics
- arxiv url: http://arxiv.org/abs/2005.05868v2
- Date: Thu, 11 Jun 2020 16:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:01:15.199268
- Title: Recurrent and Spiking Modeling of Sparse Surgical Kinematics
- Title(参考訳): スパース手術運動学の反復とスパイキングモデリング
- Authors: Neil Getty, Zixuan Zhao, Stephan Gruessner, Liaohai Chen, Fangfang Xia
- Abstract要約: ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックなデータを機械学習で分析している。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
- 参考スコア(独自算出の注目度): 0.8458020117487898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot-assisted minimally invasive surgery is improving surgeon performance
and patient outcomes. This innovation is also turning what has been a
subjective practice into motion sequences that can be precisely measured. A
growing number of studies have used machine learning to analyze video and
kinematic data captured from surgical robots. In these studies, models are
typically trained on benchmark datasets for representative surgical tasks to
assess surgeon skill levels. While they have shown that novices and experts can
be accurately classified, it is not clear whether machine learning can separate
highly proficient surgeons from one another, especially without video data. In
this study, we explore the possibility of using only kinematic data to predict
surgeons of similar skill levels. We focus on a new dataset created from
surgical exercises on a simulation device for skill training. A simple,
efficient encoding scheme was devised to encode kinematic sequences so that
they were amenable to edge learning. We report that it is possible to identify
surgical fellows receiving near perfect scores in the simulation exercises
based on their motion characteristics alone. Further, our model could be
converted to a spiking neural network to train and infer on the Nengo
simulation framework with no loss in accuracy. Overall, this study suggests
that building neuromorphic models from sparse motion features may be a
potentially useful strategy for identifying surgeons and gestures with chips
deployed on robotic systems to offer adaptive assistance during surgery and
training with additional latency and privacy benefits.
- Abstract(参考訳): ロボットによる最小侵襲手術は、外科医のパフォーマンスと患者の成績を改善している。
このイノベーションは、これまでの主観的な実践を、正確に測定できる動き列に変えている。
ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックデータを機械学習で分析している。
これらの研究において、モデルは通常、外科医のスキルレベルを評価するために、代表的な外科的タスクのためのベンチマークデータセットで訓練される。
彼らは初心者や専門家が正確に分類できることを示したが、機械学習が高度に熟練した外科医を、特にビデオデータなしで分離できるかどうかは不明だ。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
我々は,外科手術から作成した新しいデータセットを,スキルトレーニングのためのシミュレーション装置にフォーカスする。
単純で効率的な符号化方式は、キネマティックシーケンスを符号化し、エッジ学習に適するように考案された。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
さらに,モデルがスパイクニューラルネットワークに変換され,精度を損なうことなく,nengoシミュレーションフレームワークのトレーニングと推論を行うことができた。
本研究は、スパースモーションの特徴からニューロモルフィックモデルを構築することは、ロボットシステムに実装されたチップで外科医やジェスチャーを識別し、手術中の適応支援と、追加のレイテンシとプライバシの利点を備えたトレーニングを提供するための潜在的に有用な戦略である可能性を示唆している。
関連論文リスト
- VISAGE: Video Synthesis using Action Graphs for Surgery [34.21344214645662]
腹腔鏡下手術における映像生成の新しい課題について紹介する。
提案手法であるVISAGEは,アクションシーングラフのパワーを利用して,腹腔鏡下手術のシーケンシャルな特徴を捉える。
腹腔鏡下手術における高忠実度ビデオ生成について検討した。
論文 参考訳(メタデータ) (2024-10-23T10:28:17Z) - Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - SimEndoGS: Efficient Data-driven Scene Simulation using Robotic Surgery Videos via Physics-embedded 3D Gaussians [19.590481146949685]
立体内視鏡画像から3D Gaussianを学習可能な手術シーンの表現として紹介する。
本研究では3次元ガウスに物理特性を統合したマテリアルポイント法を適用し,現実的なシーン変形を実現する。
以上の結果から,内視鏡的画像から外科的シーンを効率的に再構成し,シミュレートし,外科的シーンを再構築するのにほんの数分しか要しないことが明らかとなった。
論文 参考訳(メタデータ) (2024-05-02T02:34:19Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Using Hand Pose Estimation To Automate Open Surgery Training Feedback [0.0]
本研究は,外科医の自動訓練における最先端のコンピュータビジョンアルゴリズムの利用を促進することを目的としている。
2次元手のポーズを推定することにより,手の動きをモデル化し,手術器具との相互作用をモデル化する。
論文 参考訳(メタデータ) (2022-11-13T21:47:31Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。