論文の概要: Surgical task expertise detected by a self-organizing neural network map
- arxiv url: http://arxiv.org/abs/2106.08995v1
- Date: Thu, 3 Jun 2021 10:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:06:19.292901
- Title: Surgical task expertise detected by a self-organizing neural network map
- Title(参考訳): 自己組織化ニューラルネットマップによる手術課題の専門知識
- Authors: Birgitta Dresp-Langley, Rongrong Liu, John M. Wandeto
- Abstract要約: ロボットによる外科的シミュレータータスクを実行する真の専門家と初心者のグリップ力の変動は,タスクの専門知識の関数として統計的に有意な差異を明らかにした。
本稿では,自己組織型ニューラルネットワークマップの出力測定値から,局所グリップ力のスキル特異的差が予測可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individual grip force profiling of bimanual simulator task performance of
experts and novices using a robotic control device designed for endoscopic
surgery permits defining benchmark criteria that tell true expert task skills
from the skills of novices or trainee surgeons. Grip force variability in a
true expert and a complete novice executing a robot assisted surgical simulator
task reveal statistically significant differences as a function of task
expertise. Here we show that the skill specific differences in local grip
forces are predicted by the output metric of a Self Organizing neural network
Map (SOM) with a bio inspired functional architecture that maps the functional
connectivity of somatosensory neural networks in the primate brain.
- Abstract(参考訳): 内視鏡手術用に設計されたロボット制御装置を用いて、専門家と初心者の人体シミュレータータスクパフォーマンスの個別グリップ力プロファイリングにより、初心者や研修医のスキルから真の専門家タスクスキルを示すベンチマーク基準を定義することができる。
ロボット支援手術シミュレータタスクを行う真の専門家と初心者のグリップ力変動は,タスクの専門性として統計的に有意な差異を示す。
そこで本研究では,霊長類脳における体性感覚神経ネットワークの機能的接続をマッピングする,バイオインスパイアされた機能的アーキテクチャを備えた自己組織化ニューラルネットワークマップ(SOM)の出力測定値を用いて,局所グリップ力のスキル特異的差を予測した。
関連論文リスト
- Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - SurGNN: Explainable visual scene understanding and assessment of
surgical skill using graph neural networks [19.57785997767885]
本稿では,グラフニューラルネットワーク(GNN)を用いて視覚的シーン理解と手術的スキルアセスメントを高める方法について検討する。
GNNは解釈可能な結果を提供し、予測されたスキルメトリクスに寄与する特定のアクション、楽器、または解剖学的構造を明らかにする。
論文 参考訳(メタデータ) (2023-08-24T20:32:57Z) - RObotic MAnipulation Network (ROMAN) $\unicode{x2013}$ Hybrid
Hierarchical Learning for Solving Complex Sequential Tasks [70.69063219750952]
ロボットマニピュレーションネットワーク(ROMAN)のハイブリッド階層型学習フレームワークを提案する。
ROMANは、行動クローニング、模倣学習、強化学習を統合することで、タスクの汎用性と堅牢な障害回復を実現する。
実験結果から,これらの専門的な操作専門家の組織化と活性化により,ROMANは高度な操作タスクの長いシーケンスを達成するための適切なシーケンシャルなアクティベーションを生成することがわかった。
論文 参考訳(メタデータ) (2023-06-30T20:35:22Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Spatiotemporal modeling of grip forces captures proficiency in manual
robot control [5.504040521972806]
本稿では,ロボットの手動制御における個々のグリップ力の変動を予測するために,人工知能を利用したこれまでの研究に基づいて構築した。
統計的分析は、初心者と熟練した専門家の数千のグリップフォースにおいて、フォアスキルの時間的変動をもたらす。
論文 参考訳(メタデータ) (2023-03-03T15:08:00Z) - Multi-Task Neural Processes [105.22406384964144]
我々はマルチタスク学習のためのニューラル・プロセスの新たな変種であるマルチタスク・ニューラル・プロセスを開発する。
特に,各タスク改善のための帰納的バイアスを提供するために,関数空間内の関連するタスクから伝達可能な知識を探索することを提案する。
その結果、マルチタスク学習におけるタスク間の有用な知識の伝達におけるマルチタスクニューラルプロセスの有効性が示された。
論文 参考訳(メタデータ) (2021-11-10T17:27:46Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Recurrent and Spiking Modeling of Sparse Surgical Kinematics [0.8458020117487898]
ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックなデータを機械学習で分析している。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
論文 参考訳(メタデータ) (2020-05-12T15:41:45Z) - SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction [25.865648975312407]
深層学習を外科的知覚に活用する。
我々は,効率的な特徴抽出が可能なディープニューラルネットワークを組織再構成と機器のポーズ推定プロセスに統合した。
本フレームワークは, 深層学習を特徴抽出に用いることにより, 手術環境における最先端の追跡性能を実現する。
論文 参考訳(メタデータ) (2020-03-07T00:08:30Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。